Die Trump-Regierung hat am Mittwoch einen nationalen Aktionsplan zur Entwicklung von Künstlicher Intelligenz (KI) vorgestellt. Der 28-seitige Plan soll die Vormachtstellung der USA gegenüber China im KI-Bereich sichern.
Um dieses Ziel zu erreichen, will die Regierung „bürokratische Hürden“ beseitigen, etwa Umweltauflagen beim Bau neuer Datenzentren in den USA. Die USA sollen zudem mehr KI-Produkte an Verbündete exportieren. Damit kommt die Regierung den Wünschen von KI-Unternehmen wie Open AI entgegen.
Bemerkenswert ist jedoch die einzige Ausnahme von diesem Bürokratieabbau. Der Plan empfiehlt, dass große Sprachmodelle, die von der US-Regierung beschafft werden, „objektiv und frei von ideologischen Vorurteilen“ sein sollten. Gemeint sind Modelle wie etwa OpenAIs ChatGPT oder Grok von Elon Musks Unternehmen xAI.
Per Verfügung gegen „Woke-KI“
In einer Verfügung zur „Verhinderung von Woke-KI“, die US-Präsident Donald Trump gestern unterzeichnete, wird diese Vorgabe fixiert. Die Verfügung verbietet US-Bundesbehörden, Verträge mit Tech-Unternehmen abzuschließen, die ihre KI-Modelle nicht nach den Grundsätzen von „Wahrheitstreue“ und „ideologischer Neutralität“ entwickeln. Die Regierung dürfe nicht in Modelle investieren, „die Wahrhaftigkeit und Genauigkeit zugunsten ideologischer Ziele opfern“, heißt es weiter. Die Regeln greifen in 120 Tagen, also zu Ende Oktober.
Konkret benennt die Verfügung dabei Konzepte wie „Critical Race Theory, Transgenderismus, Intersektionalität und systematischen Rassismus“, die zu einer Verzerrung der Ergebnisse in den Modellen führen würden. Critical Race Theory und Intersektionalität sind Ansätze aus der akademischen Forschung zu Diskriminierung und Rassismus. Von „Transgenderismus“ oder „Gender-Ideologie“ sprechen transfeindliche rechte Kreise, um zu suggerieren, es handele sich bei der Identität von trans* Personen um eine Weltanschauung.
Auf einem KI-Gipfel am Mittwoch sagte Trump dazu: „Das amerikanische Volk will keinen woken marxistischen Wahnsinn in KI-Modellen.“
Was ist „ideologisch neutral“?
Es ist unklar, wie Unternehmen die Vorgaben umsetzen sollen oder werden. Die Definitionen der Vorgaben von „Wahrheitstreue“ und „ideologischer Neutralität“ in der neuen Verordnung sind so vage gehalten, dass die Regierung sie in Zukunft einsetzen könnte, um Druck auf Unternehmen auszuüben.
Anthropic, OpenAI, Google und xAI haben alle in der vergangenen Woche neue Verträge über jeweils bis zu 200 Millionen Dollar mit dem US-Verteidigungsministerium abgeschlossen, um autonome KI-Agenten zu entwickeln.
Fachleute befürchten, dass die Verfügung dafür sorgen könnte, dass Unternehmen in Zukunft ihre Trainingsdaten von Ansichten bereinigen, die nicht in das Weltbild der Trump-Regierung passen. Die KI-Expertin Rumman Chowdhury benennt im Gespräch mit TechCrunch das Problem: Der Begriff „woke“ sei zu einem Container für alle möglichen Dinge geworden, die der Regierung nicht passten.
„Anti-woke“ und außer Kontrolle
Chowdhury verweist auch auf Aussagen von Elon Musk, der bei der Ankündigung der neuen Version seines Sprachmodells Grok schrieb, er werde „das gesamte Wissen der Menschheit neu schreiben, fehlende Informationen hinzufügen und Fehler löschen“. xAIs Sprachmodell Grok gilt als mögliche Blaupause dafür, welche Folgen es haben kann, wenn die Sicherheitsmaßnahmen, die andere Unternehmen in ihre Modelle eingezogen haben, um gewalttätige und diskriminierende Ergebnisse zu verhindern, bewusst aufgehoben werden.
Elon Musk hatte Grok bewusst als „anti-woke KI“ konzipiert. Das Modell wird immer wieder ausfällig und verbreitet rechte Verschwörungsmythen wie etwa den vermeintlichen Genozid an weißen Südafrikanern. Zuletzt hatte Grok Anfang Juli antisemitische Beschimpfungen und Vergewaltigungsfantasien ausgespuckt, nachdem Entwickler*innen das Modell angewiesen hatten, sich „nicht zu scheuen, politisch unkorrekte Behauptungen aufzustellen“.
Die neuen KI-Pläne der US-Regierung sind Teil eines Kulturkrieges gegen Werte und Vorstellungen, die Trumps rechte MAGA-Anhängerschaft als links und woke verunglimpft. Bereits in der Vergangenheit hatte die Regierung gegen Tech-Unternehmen gewettert, deren Inhalte-Moderation ihrer Meinung nach linke Ideen und Inhalte favorisierte und zu hart gegen rechtskonservative Positionen und Desinformation vorging. Dies wertet die Regierung als Eingriff in die Meinungsfreiheit. Mehrere Tech-Konzerne hatten nach Trumps Wiederwahl ihre Inhaltemoderation entsprechend zurückgefahren, darunter Meta. Trumps aktuelle Verfügung wird im Aktionsplan als Maßnahme für die Sicherung der Meinungsfreiheit in der „Ära von KI“ bezeichnet.

Schlagzeile from hell 😬
Umso wichtiger ist es, dass wir in der EU nicht nur starke KI Richtlinien sondern auch Gesetze haben, welche den Umgang mit KI regelt und genau solche Späße unmöglich macht.
Ein prima Beispiel dafür, dass man mit intransparenten Algorithmen politisch beeinflussen kann, Macht ausüben kann.
„Race on AI“ ist zugleich „War on other’s AI“.
Ich arbeite viel an (i.Allg. frei verfügbaren) Sprachmodellen. Tatsächlich ist Zensur und Bias eines der größten Probleme, die sogar zu Qualitätsproblemen führt – eine KI, die „woke“ (oder anderweitig) biased sein muss, kann bei Kontroversen Themen keine guten Antworten liefern. Man sieht das sehr schön an der Popularität von „abliterated“ oder „uncensored“ Versionen bekannter Modelle auf z.B. huggingface. Die Community dort ist sich einig, daß denzensieren eines Modells notwendig ist, um vernünftige Antworten zu erhalten.
Eine objektiv neutrale KI wäre daher absolut wünschenswert.
Festzulegen, was objektiv neutral ist, ist natürlich schwer. Und niemand sollte Trumps Regierung vertrauen – objektiv neutral bedeutet in diesem Falle sehr wahrscheinlich stark ideologisch rechts, eventuell durch die Hintertür.
Eine Lösung dafür sehe ich nicht, vor allem, da Unternehmen den Bias in ihre Modelle schon aus Selbstschutz einführen müssen, um nicht Klagen ausgesetzt zu werden.
Ich könnte mir aber vorstellen, daß eine allgemeine Anforderung an Objektivität, die eventuell zivilrechtlich einklagbar wäre, doch etwas bringen würde. Die Hürde einer Klage mit u.U. wenig aussicht auf Erfolg könnte allzu große Probleme eindämmen ohne zu stark ideologisch zu wirken.
More research needed.
Die allgemeinen KIs gefährden auch Prinzipien der Veröffentlichung an sich und des Copyrights. Alles was zugänglich ist wird eingesaugt und letztlich in der Monetarisierung stark eingeschränkt.
Der einzige konsequente Weg ist, jegliche Kommerzialisierung zu unterbinden. Kein Copyright, keine allgemeine kommerzielle KI, kein Tracking, auch nicht für Werbung, eher keine kommerzielle Nutzung. Wenn man die Technologie wirklich haben will.
Alles andere wird zum Herumgewiesel um den Schrein, und da kommt ihr nicht rein. Eure Daten aber schon – schön dumm!