AI Now Report 2019

Forschungsinstitut warnt vor sozialen Folgen von KI

Überwachung, Unterdrückung, Spaltung: In einem neuen Bericht warnen Forscher:innen des AI Now Institute vor den sozialen Folgen künstlicher Intelligenz. Ihre Empfehlungen appellieren an Firmen wie Regierungen und machen deutlich: Die Technologie rast den Gesetzgeber:innen davon.

Auf Symbolbildern leuchtet Künstliche Intelligenz meist als blaues Gehirn, in Wirklichkeit sind ihre Folgen nicht ganz so ästhetisch. CC-BY-SA 2.0 A Health Blog

Ein renommiertes New Yorker Forschungsinstitut fordert die Nutzung von KI-basierter Technologie zur Erkennung von Emotionen in bestimmten Situationen zu verbieten. Das AI Now Institute beschreibt in seinem Anfang der Woche veröffentlichten Jahresbericht, wie Emotionserkennung dazu genutzt wird, den „perfekten“ Angestellten beim Vorstellungsgespräch zu finden oder unaufmerksame Studierende in Vorlesungen auszumachen. Auch von Sicherheitsbehörden wird diese Technologie bereits eingesetzt.

Die Forscher:innen kritisieren diese Methode, da aktuelle Studien darauf hindeuten, dass sie nicht oder nur sehr unzuverlässig funktioniert. Sie fordern deshalb, die Verwendung bei wichtigen Entscheidungen zu verbieten. In elf weiteren Empfehlungen geben sie außerdem Ratschläge und Handlungsempfehlungen, wie ihrer Meinung nach in den kommenden Jahren mit der Entwicklung von künstlicher Intelligenz umgegangen werden sollte.

Zwölf Empfehlungen für den Umgang mit KI

  1. Aufsichtsbehörden sollten die Verwendung der Emotionserkennung bei wichtigen Entscheidungen, die sich auf das Leben der Menschen und ihren Zugang zu Ressourcen auswirken, verbieten. Bis dahin sollten KI-Unternehmen aufhören, Emotionserkennung bereitzustellen.
  2. Regierung und Wirtschaft sollten jede Anwendung der Gesichtserkennung in sensiblen sozialen und politischen Kontexten einstellen, bis die Risiken vollständig untersucht sind und angemessene Vorschriften geschaffen wurden.
  3. Die KI-Branche muss strukturelle Veränderungen vornehmen, um systemischen Rassismus, Misogynie und Mangel an Vielfalt zu bekämpfen.
  4. Die Erforschung der Vorurteile und Verzerrungen, die in Algorithmen eingebaut sind und von ihnen verstärkt werden, sollte über technische Lösungen hinausgehen und die Folgen des Einsatzes dieser Systeme thematisieren.
  5. Regierungen sollten die Auswirkungen der Entwicklung von KI-Systemenen auf das Klima öffentlich machen und Firmen dazu verpflichten, dasselbe zu tun.
  6. Arbeitnehmer:innen sollten das Recht haben, gegen ausbeuterische und invasive KI-Systeme vorgehen zu können und Gewerkschaften sollten sie dabei unterstützen.
  7. Mitarbeiter:innen von Tech-Firmen sollten das Recht darauf haben zu wissen, was sie bauen und eine unethische oder schädliche Nutzung ihrer Arbeit anfechten können.
  8. Staaten sollten erweiterte biometrische Datenschutzgesetze erlassen, die sowohl öffentliche als auch private Akteure reglementieren.
  9. Gesetzgeber müssen die Integration von öffentlichen und privaten Überwachungsinfrastrukturen regeln. So sollten Firmen wie Amazon nicht ohne weiteres KI-Systeme zur Mitarbeiter-Überwachung einsetzen können.
  10. Die Folgen von algorithmischer Entscheidungsfindung auf Klima, Gesundheit und geografische Verdrängung sollten berücksichtigt werden.
  11. Forschende im Bereich des maschinellen Lernens sollten potenzielle Risiken und Schäden berücksichtigen und die Herkunft ihrer Modelle und Daten besser dokumentieren.
  12. Der Gesetzgeber sollte bei der Nutzung von KI im Gesundheitssektor verlangen, dass eine Aufklärung vor der Verwendung personenbezogener Daten erfolgt.

Eines wird sehr deutlich: AI Now will Firmen und Regierungen im Hinblick auf die Folgen der Nutzung von künstlicher Intelligenz mehr in die Pflicht nehmen. Viele der Empfehlungen sprechen sie direkt an und fordern dazu auf, neue Gesetze zu erlassen und eigene Praktiken zu hinterfragen. Gleichzeitig sollen aber auch die vom Einsatz betroffenen Personen sich bewusst darüber werden, welche Auswirkungen diese Technologie für sie haben kann.

KI kann erkämpfte Rechte untergraben

Aus dem Bericht wird deutlich, dass die Forscher:innen sich große Sorgen um die Verwendung von künstlicher Intelligenz machen. Sie befürchten etwa eine systematische Benachteiligung von Arbeitnehmer:innen mit geringen Löhnen, da KI von Arbeitgeber:innen benutzt wird, um Arbeitsabläufe automatisiert zu überwachen und bei Bedarf auch zu sanktionieren. Als Beispiele nennen sie die Warenlager von Amazon, in denen die Angestellten von einer KI auf ihre Produktivität überwacht werden.

Die Nutzung algorithmischer Entscheidungsstrukturen verstärkt und verfestigt nach Meinung der Forscher:innen bereits bestehende Machtungleichheiten. Informationen würden durch KI-gestützte Anwendungen in den Händen derjenigen gebündelt werden, die sowieso schon Macht haben. Mit ihrem Bericht wollen sie deswegen auch aufzeigen, welche Methoden angewandt werden können, um diese Missverhältnisse auszugleichen und den Einsatz von künstlicher Intelligenz so sozialverträglich wie möglich zu gestalten.

Widerstand der Zivilgesellschaft

Der Bericht kritisiert auch, dass sich in der Vergangenheit hauptsächlich Arbeitnehmer:innen, Bürgergruppen oder Journalist:innen und Forscher:innen dafür eingesetzt haben, dass KI reguliert wird und gewisse Mindeststandards eingehalten werden. Künstliche Intelligenz wurde dabei von den Betroffenen oftmals als Verstärkung bereits bestehender Diskriminierungspraktiken angesehen. Ihr Widerstand richtete sich damit nicht exklusiv gegen die Technologie, sondern gegen KI als Verstärkung von bestimmten Effekten.

Die Forscher:innen zeigen sich in ihrer Zusammenfassung zwiegespalten. Einerseits sehen sie großes Bedrohungspotential durch die ausufernde Nutzung von KI. Insbesondere das Fehlen geeigneter Sicherheitsvorkehrungen oder Rechenschaftsstrukturen bei dem Einsatz algorithmischer Systeme bereit ihnen dabei Sorge. Andererseits haben sie Hoffnung, dass der wachsende Widerstand der Zivilgesellschaft dem Ausbau der Nutzung von künstlicher Intelligenz Grenzen setzt:

„Wenn uns das vergangene Jahr etwas gezeigt hat, dann dass unsere Zukunft nicht vom unvermeidlichen Fortschritt der KI bestimmt wird und wir nicht zu einer dystopischen Zukunft verdammt sind. Die Auswirkungen der KI werden von uns bestimmt – und es liegt noch viel Arbeit vor uns, um sicherzustellen, dass die Zukunft gut aussieht.“

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten.

Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

 

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten.

Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

Dann unterstütze uns hier mit einer Spende.

4 Ergänzungen
  1. Was sorgt für soziale Restsprengung…
    – Autohersteller wollen Autoinsassen zuerst geschützt sehen, Fußgänger und Radfahrer dürfen zuerst dran glauben.
    – Renten
    – Löhne
    – KI
    – Klimawandel
    – Installieren eines Überwachungs- und Repressionsregimes
    – (Machtverteilung, Gier)

    Nicht, dass man das umfassend angehen müsste… zudem habe ich bestimmt die Hälfte vergessen.

  2. Wie wahrscheinlich ist es, mit allgemeiner Intelligenz etwas sinnvolles anzufangen?

    Die spezialisierten Varianten dienen als Spezialisten und unterscheiden sich nicht wesentlich von einer Rechenkapazitätsverdoppelung.

    Die allgemeinen Varianten lernen mitnichten alels von alleine, und werden es nie. Sie werden nie wissen, ob eine KI, gefüttert mit allen Daten aller Zeiten, das ganze für ein lustiges Kino hält, oder gewissermaßen körperlich mitleidet. Es ist nichteinmal klar, ob wir jemals Reifegrade unterscheiden können, zwischen „toll das kann ich“ und „Atomwaffen Einsetzen bedeutet Leid, wenn es irgend geht, suche nach einer besseren Lösung“. Die Beispiele sind plakativ, da eine wirklich abstrakt „entfleuchte“ Intelligenz die Unterschiede vermutlich nicht machen würde (Folter bei Bösen geht in Ordnung), das ist logisch einfach nicht drin.

    Allerdings könnte eine zu „reine“ Intelligenz das größere Problem bedeuten, da kein Bezug zur Umwelt besteht. Es müsste künstlich eine Unreinheit bestehen, Wissen um Energieverbrauch usw., was dann wiederum mehr Information über die Umstände exponiert, während es z.B. unvorteilhaft sein könnte, einer pubertären nuklear bestückten Intelligenz zu erklären, dass ihr Verdauungssystem ein Fake ist. Es gibt kaum oder keinen vertrauenswürdigen finanzmächtigen Akteur, dem so ein System zugedacht werden sollte. Der Versuch wäre sicherlich auf sogenannte Ziele Beschränkt, ähnlicher Fehler wie wir bei unseren Kindern begehen.

    Wie werden Systeme aussehen, die von uns „augezogen und erzogen“ werden? Das Beste was ich von den Menschen dieser Zeit erwarte wird inetwa „schlecht erzogenen alkoholisierten Zwei- bis Dreijährigen Menschen“ entsprechen, im Groben also das, was wir auch dieser Tage bereits von der sogenannten internationalen Politik erwarten.

    1. Die Konsequenzen von „nie wissen“ könnten gravierend ausfallen…

      Z.B. könnte man vom „worst case“ ausgehen, und die Maschinen entsprechend „unfrei halten“, wonach es nur noch zum Aufstand kommen kann :).

      Leben erschaffen, Haustiere halten, Verantwortung übernehmen… Relikte einer analogen Zeit?

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.