Ich habe heute viel Vertrauen gehabt. Ich habe meinem Telefon vertraut, dass es mich pünktlich weckt. Ich habe darauf vertraut, dass Uber ein Taxi für mich organisiert und dass der Fahrer mich sicher zum Flughafen bringt. Ich habe darauf vertraut, dass Tausende von anderen Fahrerinnen und Fahrern auf der Straße mein Auto nicht rammen würden. Am Flughafen vertraute ich den Ticketverkäufern, den Wartungstechnikerinnen und allen anderen, die den Betrieb der Fluggesellschaften aufrechterhalten. Und dem Piloten des Flugzeugs, mit dem ich flog. Und Tausenden von anderen Menschen am Flughafen und im Flugzeug, von denen jeder mich hätte angreifen können. Und all den Menschen, die mein Frühstück zubereitet und serviert haben, und der gesamten Lebensmittelversorgungskette – jeder von ihnen hätte mich vergiften können. Als ich hier landete, vertraute ich Tausenden weiterer Menschen: am Flughafen, auf der Straße, in diesem Gebäude, in diesem Raum. Und das war alles vor 10:30 Uhr morgens.
Vertrauen ist für die Gesellschaft unerlässlich. Der Mensch ist eine vertrauende Spezies. Wir sitzen alle hier, größtenteils Fremde, und vertrauen darauf, dass uns niemand angreifen wird. Wären wir ein Raum voller Schimpansen, wäre das unmöglich. Wir vertrauen viele tausend Mal am Tag. Die Gesellschaft kann ohne dieses Vertrauen nicht funktionieren. Und dass wir nicht einmal darüber nachdenken, ist ein Maß dafür, wie gut das alles funktioniert.
In diesem Beitrag werde ich mehrere Argumente anführen. Erstens, dass es zwei verschiedene Arten von Vertrauen gibt – zwischenmenschliches Vertrauen und soziales Vertrauen – und dass wir sie regelmäßig verwechseln. Zweitens, dass diese Verwechslung mit der sogenannten Künstlichen Intelligenz (KI) zunehmen wird. Wir werden einen grundlegenden Kategorienfehler begehen: Wir werden KI als Freund betrachten, obwohl sie in Wirklichkeit nur Dienstleistung ist. Drittens: Die Unternehmen, die KI-Systeme kontrollieren, werden unsere Verwirrung ausnutzen, um uns zu übervorteilen. Diese Systeme werden nicht vertrauenswürdig sein. Und viertens, dass es die Aufgabe der Regierung ist, Vertrauen in der Gesellschaft zu schaffen. Und deshalb ist es ihre Aufgabe, ein Umfeld für vertrauenswürdige KI zu schaffen. Und das bedeutet Regulierung. Nicht die Regulierung von KI, sondern die Regulierung der Organisationen, die KI kontrollieren und nutzen.
Zwei Arten des Vertrauens
Treten wir aber zunächst einen Schritt zurück und gehen die Sache etwas langsamer an.
Vertrauen ist ein kompliziertes Konzept und das Wort ist mit vielen Bedeutungen überladen. Es gibt persönliches und intimes Vertrauen. Wenn wir sagen, dass wir einer Freundin vertrauen, geht es weniger um ihre konkreten Handlungen, sondern mehr um sie als Person. Es ist ein allgemeines Vertrauen, dass sie sich vertrauenswürdig verhalten wird. Wir vertrauen auf ihre Absichten und wissen, dass diese Absichten ihre Handlungen bestimmen werden. Nennen wir dies „zwischenmenschliches Vertrauen“.
Es gibt auch das weniger intime, weniger persönliche Vertrauen. Wir kennen jemanden vielleicht nicht persönlich oder nicht seine Beweggründe, aber wir können seinem Verhalten vertrauen. Wir wissen nicht, ob jemand stehlen will oder nicht, aber vielleicht können wir darauf vertrauen, dass er es nicht tun wird. Es geht also eher um Zuverlässigkeit und Vorhersehbarkeit. Wir nennen das „soziales Vertrauen“. Es geht um die Fähigkeit, Fremden zu vertrauen.
Zwischenmenschliches Vertrauen und soziales Vertrauen sind in der heutigen Gesellschaft unerlässlich. Und das funktioniert wie folgt: Wir verfügen über Mechanismen, die Menschen dazu veranlassen, sich vertrauenswürdig zu verhalten, sowohl im zwischenmenschlichen als auch im sozialen Bereich. Dies wiederum ermöglicht es anderen, vertrauensvoll zu sein. Das ermöglicht Vertrauen in der Gesellschaft. Und das hält die Gesellschaft am Laufen. Das System ist nicht perfekt – es wird immer Menschen geben, die nicht vertrauenswürdig sind. Aber die meisten von uns sind die meiste Zeit über vertrauenswürdig, und das ist gut genug.
Darüber habe ich 2012 in einem Buch mit dem Titel „Liars and Outliers“ geschrieben. Ich schrieb über vier Systeme, die Vertrauen ermöglichen: unsere angeborene Moral, die Sorge um unseren Ruf, die Gesetze, unter denen wir leben, und Sicherheitstechnologien, die unser Verhalten einschränken. Die ersten zwei Systeme sind informeller als die letzten beiden. Und die letzten beiden sind besser skalierbar und ermöglichen größere und komplexere Gesellschaften. Sie ermöglichen die Zusammenarbeit zwischen Fremden.
Was mir damals noch nicht klar war: Wie unterschiedlich die erste und die letzte Kategorie sind. Moral und Ansehen bestehen von Mensch zu Mensch. Sie basieren auf menschlicher Verbundenheit, gegenseitiger Verletzlichkeit, Respekt, Integrität, Großzügigkeit und vielen anderen Dingen. Sie bilden die Grundlage für zwischenmenschliches Vertrauen. Gesetze und Sicherheitstechnologien hingegen sind Vertrauenssysteme, die uns dazu zwingen, vertrauenswürdig zu handeln. Sie sind die Grundlage für soziales Vertrauen.
Soziales Vertrauen lässt sich besser skalieren
Taxifahrer war früher einer der gefährlichsten Berufe des Landes. Uber hat das geändert. Ich kenne meinen Uber-Fahrer nicht, aber die Regeln und die Technologie lassen uns beide darauf vertrauen, dass keiner von uns den anderen betrügen oder angreifen wird. Wir stehen beide unter ständiger Beobachtung und konkurrieren um die besten Sterne-Bewertungen.
Viele Menschen schreiben über den Unterschied zwischen dem Leben in einer Gesellschaft mit hohem und in einer mit niedrigem Vertrauen. Wie Zuverlässigkeit und Vorhersehbarkeit alles einfacher machen. Und was verloren geht, wenn die Gesellschaft diese Eigenschaften nicht hat. Und wie sich Gesellschaften mit hohem Vertrauen zu Gesellschaften mit niedrigem Vertrauen entwickeln und umgekehrt. Hier geht es um soziales Vertrauen.
Für meine Argumentation ist jedoch ein anderer Punkt entscheidend, nämlich dass soziales Vertrauen besser skaliert. Früher brauchte man eine persönliche Beziehung zu einem Bankangestellten, um einen Kredit zu bekommen. Heute wird alles algorithmisch abgewickelt, und man hat viel mehr Möglichkeiten, aus denen man wählen kann.
Soziales Vertrauen lässt sich besser skalieren, birgt aber alle Arten von Voreingenommenheit und Vorurteilen. Das liegt daran, dass soziales Vertrauen, um skalieren zu können, strukturiert, system- und regelorientiert sein muss – und genau dort werden die Vorurteile eingebettet. Außerdem muss das System weitgehend blind für den Kontext sein, was die Flexibilität einschränkt.
Vertrauen basiert auf Sicherheitsmechanismen
Aber dieser Maßstab ist entscheidend. In der heutigen Gesellschaft vertrauen wir regelmäßig Regierungen, Unternehmen, Marken, Organisationen und Gruppen – oder auch nicht. Ich vertraue nicht so sehr dem Piloten, der mein Flugzeug geflogen hat, sondern der Fluggesellschaft, die gut ausgebildete und ausgeruhte Piloten pünktlich in die Cockpits setzt. Ich vertraue nicht den Köchinnen und Kellnern in einem Restaurant, sondern dem System der Gesundheitsvorschriften, nach denen sie arbeiten. Ich kann nicht einmal das Bankensystem beschreiben, dem ich vertraute, als ich heute Morgen einen Geldautomaten nutzte. Auch hier ist dieses Vertrauen nicht mehr als Zuverlässigkeit und Vorhersehbarkeit.
Bleiben wir kurz bei dem Restaurant. Stellen Sie sich vor, es handelt sich um ein Fast-Food-Restaurant, in dem Jugendliche beschäftigt sind. Das Essen ist mit ziemlicher Sicherheit sicher – wahrscheinlich sicherer als in gehobenen Restaurants. Verantwortlich dafür sind die Unternehmensstrukturen sowie die Zuverlässigkeit und Vorhersehbarkeit, die das gesamte Verhalten bestimmen.
Eben darin liegt der Unterschied. Sie können einen Freund bitten, ein Paket quer durch die Stadt zu liefern. Oder Sie können die Post dafür bezahlen, dass sie das tut. Ersteres ist zwischenmenschliches Vertrauen, das auf Moral und Ruf beruht. Sie kennen Ihren Freund und wissen, wie zuverlässig er ist. Das zweite ist eine Dienstleistung, die durch soziales Vertrauen ermöglicht wird. Und soweit es sich dabei um eine zuverlässige und vorhersehbare Dienstleistung handelt, basiert sie in erster Linie auf Gesetzen und Technologien. Beide können Ihr Paket zustellen, aber nur der zweite kann zu dem globalen Paketzustellsystem werden, wie es etwa FedEx ist.
Aufgrund der Größe und Komplexität der Gesellschaft haben wir viele der Rituale und Verhaltensweisen des zwischenmenschlichen Vertrauens durch Sicherheitsmechanismen ersetzt, die Zuverlässigkeit und Vorhersehbarkeit erzwingen – soziales Vertrauen.
Wir begehen regelmäßig einen Kategorienfehler
Da wir aber für beides das gleiche Wort verwenden, verwechseln wir sie regelmäßig. Und wenn wir das tun, begehen wir einen Kategorienfehler. Und das tun wir die ganze Zeit. Bei Regierungen, bei Organisationen, bei Systemen jeglicher Art. Und besonders bei Unternehmen.
Wir mögen sie für Freunde halten, aber in Wirklichkeit sind sie Dienstleister. Unternehmen sind nicht moralisch. Sie sind vielmehr genau so unmoralisch, wie es das Gesetz und ihr Ruf zulassen. Die Unternehmen nutzen also regelmäßig ihre Kunden aus, misshandeln ihre Arbeitnehmer, verschmutzen die Umwelt und setzen sich für Gesetzesänderungen ein, damit sie noch mehr von diesen Dingen tun können.
Sowohl die Sprache als auch die Gesetze machen es leicht, diesen Kategorienfehler zu begehen. Wir verwenden die gleiche Grammatik für Menschen und Unternehmen. Wir stellen uns vor, dass wir persönliche Beziehungen zu Marken pflegen. Wir geben Unternehmen einige der gleichen Rechte wie Menschen.
Den Unternehmen gefällt es, dass wir diesen Kategorienfehler begehen, denn sie profitieren davon, wenn wir sie als Freunde betrachten. Sie benutzen Maskottchen und Sprechermodelle. Sie haben Social-Media-Konten mit Persönlichkeit. Sie sprechen von sich als wären sie Menschen. Aber sie sind nicht unsere Freunde. Unternehmen sind nicht in der Lage, eine solche Beziehung zu führen.
KI ist nicht unser Freund
Wir sind dabei, den gleichen Kategorienfehler mit KI-Systemen zu begehen. Wir werden diese Systeme für unsere Freunde halten, obwohl sie es nicht sind.
Es ist viel über KI als existenzielles Risiko geschrieben worden. Die Befürchtung ist, dass sie ein Ziel haben und darauf hinarbeiten wird, auch wenn sie dabei Menschen schadet. Vielleicht haben Sie vom „Büroklammer-Maximierer“ gelesen: eine KI, die darauf programmiert wurde, so viele Büroklammern wie möglich herzustellen, und die schließlich die Erde zerstört, um dieses Ziel zu erreichen. Das ist eine unheimliche Angst.
Der Science-Fiction-Autor Ted Chiang schreibt darüber. Anstatt alle Probleme der Menschheit zu lösen oder mathematische Theoreme zu beweisen, die niemand versteht, verfolgt die KI zielstrebig den Plan, die Produktion zu maximieren. Chiang will damit sagen, dass dies der Geschäftsplan eines jeden Unternehmens ist. Und dass unsere Ängste vor KI im Grunde genommen Ängste vor dem Kapitalismus sind. Der Science-Fiction-Autor Charlie Stross geht noch einen Schritt weiter und bezeichnet Unternehmen als „langsame KI“. Sie sind gewinnmaximierende Maschinen. Und die erfolgreichsten unter ihnen tun alles, um dieses eine Ziel zu erreichen.
Und in naher Zukunft werden KIs von Unternehmen kontrolliert werden. Diese werden sie zur Erreichung dieses gewinnmaximierenden Ziels einsetzen. Sie werden nicht unsere Freunde sein. Bestenfalls werden sie nützliche Dienste sein. Wahrscheinlicher ist jedoch, dass sie uns ausspionieren und versuchen werden, uns zu manipulieren.
Überwachung und Manipulation werden zunehmen
All das ist nichts Neues. Überwachung ist das eine Geschäftsmodell des Internets, Manipulation das andere.
Ihre Google-Suchergebnisse führen zu URLs, für die jemand bezahlt hat, um sie anzuzeigen. Unsere Facebook- und Instagram-Feeds sind voll mit gesponserten Beiträgen. Amazon-Suchen führen zu Seiten mit Produkten, deren Verkäufer für die Platzierung bezahlt haben.
So funktioniert das Internet. Unternehmen spionieren uns aus, wenn wir ihre Produkte und Dienstleistungen nutzen. Datenmakler kaufen diese Überwachungsdaten von den kleineren Unternehmen und stellen detaillierte Dossiers über uns zusammen. Dann verkaufen sie diese Informationen an diese und andere Unternehmen zurück, die sie mit den von ihnen gesammelten Daten kombinieren, um unser Verhalten im Sinne ihrer Interessen zu manipulieren. Auf Kosten unserer eigenen Interessen.
Wir nutzen all diese Dienste, als ob sie unsere Agenten wären, die in unserem Namen arbeiten. In Wirklichkeit sind sie Doppelagenten, die im Geheimen auch für ihre Firmeninhaber arbeiten. Wir vertrauen ihnen, aber sie sind nicht vertrauenswürdig. Sie sind keine Freunde, sie sind Dienstleister.
Bei der KI wird es nicht anders sein. Und das Ergebnis wird noch viel schlimmer sein, und zwar aus zwei Gründen.
Der erste ist, dass diese KI-Systeme stärker auf Beziehungen ausgerichtet sein werden. Wir werden uns mit ihnen unterhalten, und zwar in natürlicher Sprache. Daher werden wir ihnen ganz selbstverständlich menschenähnliche Eigenschaften zuschreiben.
Diese Beziehungsnatur wird es diesen Doppelagenten leichter machen, ihre Arbeit zu erledigen. Hat Ihr Chat-Bot eine bestimmte Fluggesellschaft oder ein bestimmtes Hotel empfohlen, weil es wirklich das beste Angebot für Ihre individuellen Bedürfnisse ist? Oder weil die KI-Firma ein Schmiergeld von diesen Anbietern erhalten hat?
Wenn Sie den Chat-Bot gebeten haben, ein politisches Thema zu erklären, hat er diese Erklärung dann entlang der Position des Unternehmens ausgerichtet? Oder orientiert er sich an derjenigen politischen Partei, die ihr das meiste Geld gegeben hat? Die Dialog-Schnittstelle – also die Art und Weise, wie wir mit der KI kommunizieren – wird dazu beitragen, ihre Agenda zu verbergen.
Die KI als Freund und Partner
Der zweite Grund zur Besorgnis ist, dass diese KI uns vertrauter sein wird. Eines der Versprechen der generativen KI ist ein persönlicher, digitaler Assistent. Gegenüber anderen wird er als Ihr Advokat auftreten, Ihnen persönlich gegenüber aber als Diener. Dies erfordert eine größere Vertrautheit als Ihre Suchmaschine, Ihr E-Mail-Anbieter, Ihr Cloud-Speichersystem oder Ihr Telefon. Sie möchten, dass der Assistent rund um die Uhr bei Ihnen ist und sich ständig über alles, was Sie tun, informiert. Sie werden wollen, dass er alles über Sie weiß, damit er möglichst effektiv für Sie arbeiten kann.
Und die KI wird Ihnen in vielerlei Hinsicht helfen. Sie wird Ihre Stimmungen bemerken und wissen, was sie Ihnen vorschlagen soll. Sie wird Ihre Bedürfnisse vorhersehen und darauf hinarbeiten, diese zu erfüllen. Sie wird Ihr Therapeut, Ihr Lebensberater und Ihr Beziehungsberater sein.
Sie werden die KI als einen Freund betrachten. Sie werden mit ihr in natürlicher Sprache sprechen, und sie wird Ihnen in gleicher Weise antworten. Wenn es ein Roboter ist, wird er humanoid aussehen – oder zumindest wie ein Tier. Er wird mit Ihrer gesamten Existenz interagieren, genau wie ein anderer Mensch es tun würde.
Dass die KI in natürlicher Sprache mit Ihnen kommunizieren wird, ist hier von entscheidender Bedeutung. Wir sind darauf getrimmt, alle als Menschen zu betrachten, die unsere Sprache sprechen. Und wir haben manchmal Schwierigkeiten, jene genauso zu betrachten, die eine andere Sprache sprechen. Diesen Kategorienfehler machen wir bei offensichtlichen Nicht-Menschen, wie etwa bei Zeichentrickfiguren. Wir haben ganz selbstverständlich eine „Theorie des Geistes“ über die KI, mit der wir sprechen.
Nichts ist, wie es scheint
Genauer gesagt ziehen wir den Fehlschluss, dass die Implementierung von etwas dasselbe ist wie seine Schnittstelle. Wir nehmen also an, dass die Dinge im Inneren genauso sind wie an der Oberfläche. So ist es auch bei den Menschen: Wir sind durch und durch Menschen. Eine Regierung ist in ihrem Inneren systemisch und bürokratisch. Man wird sie nicht mit einer Person verwechseln, wenn man mit ihr zu tun hat.
Aber das ist der Kategorienfehler, den wir bei Unternehmen machen. Wir verwechseln mitunter die Organisation mit ihrem Sprecher. Die Künstliche Intelligenz hat eine vollständig relationale Schnittstelle – sie spricht wie ein Mensch –, aber sie hat auch eine vollständig systemische Implementierung. Wie ein Unternehmen, aber viel mehr. Die Implementierung und die Schnittstelle sind unterschiedlicher als alles, was wir bisher kennengelernt haben – und zwar um ein Vielfaches.
Und Sie werden der KI vertrauen wollen. Sie wird Ihre Eigenheiten und kulturellen Referenzen verwenden. Sie wird eine überzeugende Stimme, einen selbstbewussten Ton und ein autoritäres Auftreten haben. Ihre Persönlichkeit wird genau auf das optimiert sein, was Sie mögen und worauf Sie reagieren.
Sie wird sich vertrauenswürdig verhalten, aber nicht vertrauenswürdig sein. Wir werden nicht wissen, wie sie ausgebildet wird. Wir werden ihre geheimen Anweisungen nicht kennen. Wir werden ihre Voreingenommenheit nicht kennen, weder zufällig noch absichtlich. Wir wissen nur, dass sie unter enormen Kosten, meist im Verborgenen, von gewinnmaximierenden Unternehmen zu deren eigenem Vorteil gebaut wird.
Es ist kein Zufall, dass diese Unternehmens-KIs eine menschenähnliche Schnittstelle haben. Daran ist nichts Unvermeidliches. Es ist eine Designentscheidung. Sie könnte so gestaltet sein, dass sie weniger persönlich ist, weniger menschenähnlich, eher eine Dienstleistung wie eine Suchmaschine. Die Unternehmen hinter diesen KIs wollen, dass Sie den Fehler der Kategorie Freund-Dienst machen. Sie werden es ausnutzen, dass Sie sie mit einem Freund verwechseln. Und Sie haben vielleicht gar keine andere Wahl, als sie zu nutzen.
Das verschleierte Machtgefälle
Es gibt etwas, über das wir noch nicht gesprochen haben, wenn es um Vertrauen geht: Macht. Manchmal haben wir keine andere Wahl, als jemandem oder etwas zu vertrauen, weil er oder sie mächtig ist. Wir sind gezwungen, der örtlichen Polizei zu vertrauen, weil sie die einzige Vollzugsbehörde in der Stadt ist. Wir sind gezwungen, einigen Unternehmen zu vertrauen, weil es keine brauchbaren Alternativen gibt. Genauer gesagt, wir haben keine andere Wahl, als uns ihnen anzuvertrauen. Mit der KI werden wir uns in der gleichen Lage befinden. Wir werden keine andere Wahl haben, als uns ihren Entscheidungen anzuvertrauen.
Die Verwechslung von Freund und Dienst wird dazu beitragen, dieses Machtgefälle zu verschleiern. Wir werden vergessen, wie mächtig das Unternehmen hinter der KI ist, weil wir auf die Person fixiert sind, für die wir die KI halten.
Bisher haben wir über einen bestimmten Fehler gesprochen, der aus übermäßigem Vertrauen in die KI resultiert. Wir können es als „versteckte Ausbeutung“ bezeichnen. Es gibt aber noch andere.
Es gibt den offenen Betrug, bei dem die KI tatsächlich versucht, Dinge von Ihnen zu stehlen. Es gibt den prosaischeren Irrtum über das Fachwissen, bei dem man glaubt, dass die KI mehr weiß, weil sie selbstbewusst handelt. Es gibt die Inkompetenz, bei der Sie glauben, dass die KI etwas kann, was sie tatsächlich aber nicht kann. Es gibt die Inkonsequenz, bei der man fälschlicherweise erwartet, dass die KI in der Lage ist, ihr Verhalten zu wiederholen. Und es gibt die Illegalität, bei der man fälschlicherweise darauf vertraut, dass die KI das Gesetz befolgt. Es gibt wahrscheinlich noch etliche weitere Möglichkeiten, das Vertrauen in eine KI zu enttäuschen.
Wir brauchen eine KI, der wir vertrauen können
Aus alledem folgt vor allem eines: Wir brauchen eine vertrauenswürdige KI. Eine KI, deren Verhalten, Grenzen und Training wir verstehen. Eine KI, deren Voreingenommenheit wir erkennen und korrigieren können. Eine KI, deren Ziele wir verstehen. Eine KI, die nicht heimlich unser Vertrauen missbraucht.
Der Markt wird dies nicht von alleine leisten. Unternehmen sind Gewinnmaximierer, die auf Kosten der Gesellschaft handeln. Und die Anreize des Überwachungskapitalismus sind einfach zu groß, um ihnen zu widerstehen.
Es ist der Staat, der die grundlegenden Mechanismen für das soziale Vertrauen bereitstellt, das für die Gesellschaft unerlässlich ist. Denken Sie an das Vertragsrecht. Oder Gesetze über Eigentum oder zum Schutz Ihrer persönlichen Sicherheit. Oder an die Gesundheits- und Sicherheitsvorschriften, die es Ihnen ermöglichen, unbesorgt ein Flugzeug zu besteigen, in einem Restaurant zu essen oder ein Medikament zu kaufen.
Je mehr Sie darauf vertrauen können, dass Ihre gesellschaftlichen Interaktionen verlässlich und vorhersehbar sind, desto mehr können Sie deren Details ignorieren. Orte, an denen die Regierungen diese Dinge nicht gewährleisten, sind keine guten Orte zum Leben.
Die Regierung kann dies auch bei der Künstlichen Intelligenz erreichen. Wir brauchen Gesetze zur Transparenz von KI – wann sie eingesetzt wird, wie sie trainiert wird, welche Vorurteile sie hat. Wir brauchen Gesetze, die die Sicherheit von KI und Robotern regeln. Wann es erlaubt ist, die Welt zu beeinflussen. Wir brauchen Gesetze, die die Vertrauenswürdigkeit von KI durchsetzen. Das bedeutet auch, dass wir erkennen müssen, wenn diese Gesetze gebrochen werden. Und es braucht ausreichend hohe Strafen, um Anreize für vertrauenswürdiges Verhalten zu schaffen.
Die Menschen hinter der KI
Viele Länder denken über Gesetze zur Sicherheit von KI nach – die EU ist am weitesten fortgeschritten. Aber ich glaube, sie alle machen einen entscheidenden Fehler. Sie versuchen, die KI zu regulieren und nicht die Menschen, die hinter ihr stehen.
KIs sind keine Menschen, sie haben keine Handlungsfähigkeit. Sie werden von Menschen gebaut, trainiert und kontrolliert. Meistens von gewinnorientierten Unternehmen. Alle KI-Vorschriften sollten diesen Menschen und Unternehmen Beschränkungen auferlegen. Andernfalls machen die Vorschriften denselben Kategorienfehler, von dem ich eingangs gesprochen habe.
Letzten Endes ist immer ein Mensch für das Verhalten der KI verantwortlich. Und es ist der Mensch, der dafür verantwortlich sein muss, was er tut – und was seine Unternehmen tun. Unabhängig davon, ob der Mensch, die KI oder eine Kombination aus beidem dafür verantwortlich ist. Vielleicht gilt das nicht für immer, aber in naher Zukunft wird es so sein. Wenn wir eine vertrauenswürdige KI wollen, brauchen wir vertrauenswürdige KI-Kontrolleure.
Dafür haben wir bereits ein System: Treuhänder. Es gibt Bereiche in der Gesellschaft, in denen Vertrauenswürdigkeit von überragender Bedeutung ist, sogar noch mehr als sonst. Ärztinnen, Anwälte, Buchhalterinnen – sie alle sind Vertrauenspersonen. Sie brauchen einen außerordentlichen Zugang zu unseren Informationen und zu uns selbst, um ihre Arbeit machen zu können. Und deshalb haben sie zusätzliche rechtliche Verpflichtungen, in unserem besten Interesse zu handeln. Sie haben eine treuhänderische Verantwortung gegenüber ihren Kundinnen und Kunden.
Das Gleiche brauchen wir für unsere Daten. Die Idee eines Datentreuhänders ist nicht neu. Aber in einer Welt der generativen KI-Assistenten ist sie sogar noch wichtiger.
Von der Öffentlichkeit, für die Öffentlichkeit
Und schließlich brauchen wir noch eines: öffentliche KI-Modelle. Dabei handelt es sich um Systeme, die akademische Einrichtungen, gemeinnützige Gruppen oder die Regierung selbst entwickeln und die von Privatpersonen betrieben werden können.
Der Begriff „öffentliches Modell“ wurde in der KI-Welt schon oft verwendet. Daher lohnt es sich, genauer zu erklären, was damit gemeint ist. Es handelt sich nicht um ein KI-Modell eines Unternehmens, das die Öffentlichkeit frei nutzen kann. Es ist kein KI-Modell eines Unternehmens, das die Regierung lizenziert hat. Es ist noch nicht einmal ein Open-Source-Modell, das die Öffentlichkeit frei prüfen und verändern kann.
Ein öffentliches Modell ist ein Modell, das von der Öffentlichkeit für die Öffentlichkeit entwickelt wurde. Es erfordert nicht nur Marktverantwortlichkeit, sondern politische Verantwortlichkeit. Das bedeutet Offenheit und Transparenz, gepaart mit einem Eingehen auf die Bedürfnisse der Öffentlichkeit. Es sollte auch für jeden verfügbar sein, um darauf aufzubauen. Das bedeutet universellen Zugang. Und eine Grundlage für einen freien Markt für KI-Innovationen. Dies wäre ein Gegengewicht zur KI in Unternehmensbesitz.
Dem Überwachungskapitalismus Grenzen setzen
Wir können KI niemals zu unserem Freund machen. Aber wir können sie zu einem vertrauenswürdigen Dienstleister machen – zu unserem Agenten statt zum Doppelagenten. Wir können dem Überwachungskapitalismus Grenzen setzen. Das gelingt aber nur, wenn die Regierung dies vorschreibt.
Denn die Regierung hat die Aufgabe, soziales Vertrauen zu schaffen. Zu Beginn habe ich die Bedeutung von Vertrauen in der Gesellschaft erläutert und erklärt, dass sich zwischenmenschliches Vertrauen nicht auf größere Gruppen übertragen lässt. Es ist diese andere, unpersönliche Art von Vertrauen – soziales Vertrauen, Zuverlässigkeit und Vorhersagbarkeit –, die Regierungen schaffen.
In dem Maße, wie eine Regierung das Vertrauen in die Gesellschaft insgesamt verbessert, ist sie erfolgreich. Und in dem Maße, in dem eine Regierung dies nicht tut, scheitert sie.
Aber die Regierungen müssen dies tun. Wir brauchen sie, um das Verhalten von Unternehmen und der von ihnen entwickelten, eingesetzten und kontrollierten KI einzuschränken. Die Regierung muss sowohl die Vorhersehbarkeit als auch die Zuverlässigkeit dieser Systeme durchsetzen.
Nur so können wir das soziale Vertrauen schaffen, das die Gesellschaft braucht, um zu gedeihen.
Bruce Schneier ist ein US-amerikanischer Experte für Kryptographie und Computersicherheit. Er lehrt an der Harvard Kennedy School und ist Vorstandsmitglied der Electronic Frontier Foundation und von AccessNow. Er hat mehrere Bücher über Computersicherheit geschrieben. Der Text ist eine Übersetzung des Original-Artikels, der Ende November unter dem Titel „AI and Trust“ auf www.belfercenter.org erschienen ist. Alle Rechte vorbehalten, mit freundlicher Genehmigung des Autors.
Muß man denn Wahnsinn unbedingt regulieren anstatt darauf zu verzichten?
Andere zum Verzichten zu zwingen nennt man Regulierung.
Selber verzichten und andere machen lassen nennt man Opfer.
Regulierer sind Gesetzgeber. Zur Gesetzgebung berechtigt sind Regierende. Der Prozess der Gesetzgebung wird im Widerstreit von Interessen ausgetragen. Lobbyismus nimmt Einfluss auf Gesetzgebung. Erfahrung zeigt, dass Gesetzentwürfe nicht selten durch kapitalstarke Einflussnehmer geschliffen werden. Was am Ende Gesetz wird, ist ein zustimmungsfähiger Kompromiss, der kleinste gemeinsame Nenner sozusagen. Man könnte sagen, so funktioniert Demokratie.
Doch Vorsicht: Regierende sind durch die Mehrheit der Wähler legitimiert und sind dem Wohl des ganzen Landes verpflichtet. Wenn also immer wieder Wirtschaftsinteressen den Interessen der Menschen priorisiert werden, dann werden Menschen zurecht misstrauisch, denn sie bemerken, dass ihre Interessen schlecht vertreten werden. Sie stellen sich die Frage, ob sie den Regulierern vertrauen können, insbesondere wenn es um vorrangig betriebene Wirtschaftsinteressen im Zuge der Digitalisierung geht.
„Zur Gesetzgebung berechtigt sind Regierende.“
Schon an den Grundzügen unserer staatlichen Verfassung gescheitert, tragisch. Aber geben Sie sich nicht auf, bilden Sie sich weiter! Die bpb hat tolles Material zu Gewaltenteilung, Parlament, Legislative und Exekutive.
Wer sich wundert, warum sich da jemand so die Backen aufbläst, dem sei Art. 76 Absatz 1 GG zur Lektüre empfohlen:
„Gesetzesvorlagen werden beim Bundestage durch die Bundesregierung, aus der Mitte des Bundestages oder durch den Bundesrat eingebracht.“
Wer Bundesregierung und Bundesrat als „Regierende“ zusammenfasst, der macht keinen Fehler. Übrig bleibt die Möglichkeit, dass 5% der Bundestagsabgeordneten eine Gesetzesinitiative anstrengen, die jedoch seltenst zum Erfolg führt. Kein Grund also andere so despektierlich in den Stiefel zu stellen.
Und genauso gescheitert.
Initiativrecht ist das eine, Beschlussrecht ist das andere. Gesetze kann nur die Legislative geben, und sie werden dem Bundestag zur Beratung und Beschluss vorgelegt, nicht nur zum Abnicken.
Dass die Parteien das unterhoehlt haben, d’accord, aber nichtsdestoweniger machen „die Regierenden“ als Exekutive keine Gesetze.
Man sollte sich mit seinem Anspruch an dem Anspruch des GG orientieren, nicht an den oft genug dagegen agierenden Politikern.
Das fehlende Initiativrecht des EU Parlaments ist übrigens eines der fundamentalen Demokratiedefizite der EU, was die Regierungen der Mitgliedstaaten auch tunlichst nicht ändern wollen.
Der Artikel hebt die Bedeutung des Schutzes menschlicher Verletzlichkeit hervor und erweitert um die Notwendigkeit erfolgreicher Regulierung in Unternehmen. Andreas Suchanek, ein Unternehmensethiker, betont, dass Vertrauen für nachhaltiges Wirtschaften entscheidend ist. Unternehmen sind Teil gesellschaftlicher Prozesse und müssen, ähnlich wie Regierungen, Vertrauen aufbauen. Trotz Informationsasymmetrien zwischen Unternehmen und Verbrauchern, besonders in Monopolmärkten, existieren seit Jahrzehnten Bemühungen in EU-Märkten um Transparenz durch Standards, Audits und Reports. Diese enthüllen Qualitätsmerkmale wie faire Bezahlung und Klimafreundlichkeit. Auch wenn Mängel wie „x-Washing“ bestehen, stärken sie das Vertrauen in Produkte und fördern Nachhaltigkeitsziele. Im Kontext von KI ist daher neben Regulierung die Verstärkung der Effekte durch wirksame Selbstverpflichtung von Unternehmen und Organisationen wichtig. Corporate Digital Responsibility zielt auf freiwillige Standards, Audits und transparente Berichterstattung ab, um die Qualität und Zuverlässigkeit von KI-Systemen zu garantieren. Diese Maßnahmen sind essenziell, um fundiertes Vertrauen in die Technologie zu etablieren.
Ein Text, der von einer KI stammen könnte. Wo bleibt der Bezug zur Realität?
Corporate Responsibility als Sonntagsrede, als Utopie, als Beruhigungspille oder wohlfeile Illusion.
Selbstkontrolle, Selbstregulierung und Selbstverpflichtung der Unternehmen sind vielleicht dazu geeignet ein wenig Framing für Public Relations zu betreiben, haben aber zu häufig enttäuscht und können wegen Unwirksamkeit als gescheitert betrachtet werden.
Von etwaigen Nachhaltigkeitszielen ist Gewinnmaximierung das Ziel mit oberster Priorität. Der Rest ist Brainwashing für Naive und Leichtgläubige. Das Vertrauen wurde in den fetten Jahren leichtfertig verspielt. Glaubwürdig wären vielleicht noch gut kalkulierte Investitionen, die dem Gemeinwohl dienen. Was gegenwärtig aber stattfindet ist ein „rette sich wer kann“.
Autoren wird Reputation zugeschrieben. Unser Gastautor genießt davon reichlich in seinem Fachbereich. Ist deshalb alles richtig, was er schreibt bzw. was für die Leser ins Deutsche übersetzt wird, oder ist die Kompetenz der Kritikfähigkeit einem unkritischen Vertrauen vorzuziehen?
„Ich schrieb über vier Systeme, die Vertrauen ermöglichen: unsere angeborene Moral, …“
Was ist Moral? Kann Moral überhaupt angeboren sein?
Moral als geisteswissenschaftliches Konstrukt ist schon ziemlich komplex und wird je nach wissenschaftlicher Fachrichtung unterschiedlich definiert. Wird Moral empirisch untersucht, müssen sozusagen Bestandteile von Moral beobachtbarem Verhalten zugeordnet werden.
Wenn es um „Angeborenes“ geht, haben wir es mit Vererbung und Genetik zu tun, also um biologisches Potential. Inwieweit dieses Potential individuell zur Geltung kommt hängt ganz allgemein von Umweltfaktoren ab.
Der Versuch, Kriminalität in den Genen zu finden scheiterte kläglich. Es liegt nahe, dass dies bei dem noch schwierigeren Begriff Moral ähnlich gelagert ist.
Nun ist es aber so, dass engl. „natural“ einmal mit „angeboren“ übersetzt werden kann, aber ebenso „natürlich“ bedeuten kann. Natural moral also auch als Moral verstanden werden kann, die zur Natur des Menschen gehört.
Was meint der Autor? Was sagt der/die Übersetzer/in?
Der Originaltext ist direkt unter dem Text verlinkt. :-)
Er meint also tatsächlich „innate“ also „angeboren/natürlich/ureigen“. Vielleicht etwas unglücklich formuliert. An der Frage, ob und welche Sicherheitsregelungen / Gesetze sinnvoll sind, ändert das allerdings meiner Ansicht nach allersings wenig.
Vor allem die Forderung nach Transparenz scheint mir jedoch unglaublich wichtig. Gerade weil die Methoden im Kern so schwierig nachzuvollziehen sind, muss der Umgang damit so offen wie möglich passieren.
Ich glaube dass in diesem Text an vielen Stellen der für Deutsche typische Übersetzungsfehler government => Regierung gemacht wird, obwohl „Staat“ besser passt (weil Regierung in Englisch als „administration“ ausgedrückt würde). Frohe Weihnachten
Regulierungen sind politischer Natur. Wenn ich der Politik nicht vertraue, dann werde ich erst recht nicht dem vertrauen, was sie produziert. Klingt das, was sie produziert, zunächst für mich gut, dann fange ich an zu suchen. Dabei bin ich bislang fast immer fündig geworden und habe recht schnell die dabei von derselben Politik klammheimlich installierten Fallen und Heimtücken gefunden, die das, was da reguliert wurde, zu einer weiteren erheblichen Verschlimmbesserung machen.
Ansonsten – wo es um den Schwerpunkt KI geht – empfinde ich in diesem Zusammenhang die Benutzung des Begriffs „Intelligenz“ als abartig. Abgesehen davon, daß Computeralgorithmen keine Intelligenz haben können, sondern lediglich ein paar menschengemachte in Formeln gefaßte Verhaltensweisen, ist Intelligenz etwas, das sich nie direkt, sondern immer nur in den späteren Auswirkungen zeigt, welche unmittelbar vom Charakter eines Menschen abhängig sind. Intelligenz beeinflußt das menschliche Verhalten. Wo Schurken etwas „intelligent“ regulieren, da entsteht Schurkenwerk. Punkt, aus!
Mit „alles Lügner und ich bin dagegen“ erreicht man bestenfalls nichts und idR allgemeine Verschlechterung.
Was ist also der konstruktive Vorschlag?
Gehässig gesehen, könnte man ein feindliches Umfeld annehmen, und von der Politik entsprechende Systematik und Vorsicht fordern. Das wäre für sich etwas. Wie/wo/wann/wieviel angebracht wäre, ist eine weitere bzw. eine andere Frage.
Eine Frage: Ist dieser Beitrag von einer KI vorübersetzt worden? Die Angabe eines Übersetzernamens wäre sehr hilfreich, würde zudem auch eine Arbeit wertschätzen, der wir ebenfalls sehr viel Vertrauen entgegenbringen (müssen).
Die Angabe eines professionellen Übersetzers ist außerhalb von Literaturübersetzungen nicht üblich, verantwortlich zeichnet die Redaktion.