Die heutige Kolumne muss sich wohl mit sogenannter künstlicher Intelligenz, kurz KI, beschäftigen. Vermeintlich innovativ wäre es, das Intro vom neuen Chatbot ChatGPT schreiben zu lassen. Leider konnte ich mich mit ChatGPT nicht bei der Schreibweise der korrekt falschen, für diese Kolumne höchst sinnstiftenden Wortschöpfung „Degitalisierung“ einigen. Und nun kommt dieser Text halt wieder von mir persönlich. Sorry.
Es ist schon toll, dass es jetzt magische KI-Tools gibt, die wie kleine digitale Heinzelmännchen Unmengen an wundersamen digitalen Dingen herzaubern. Endlich eine Lösung für all unsere… tja, was eigentlich genau?
Wir befinden uns aktuell an vielen Ecken des Technologiefelds der sogenannten Künstlichen Intelligenz an einem Punkt überzogener Erwartungen. Was vielleicht die Frage wert ist: Was war nochmal das Problem? Also das Problem, das der Einsatz von KI lösen sollte.
Hänschen Klein
Arthur C. Clarke, britischer Science-Fiction-Autor, hat im Rahmen seiner Werke drei Gesetze aufgestellt, von denen das dritte das bekannteste sein dürfte. Es beschreibt den Umgang mit neuartiger Technologie mit diesen Worten: „Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“
Leider sind wir auch im Bereich KI gerade wieder an so einem Punkt. Das liegt zum einem daran, dass der Begriff inzwischen arg aufgedunsen ist. Jedes noch so triviale Regelwerk wird heute pauschal als „KI“ bezeichnet. Aber das ist nicht der einzige Grund. KI wirkt auf viele wie magische Technologie, die all unsere Probleme „automagisch“ lösen wird. Morgen schon. Die Technologie wirkt dabei so unnahbar, dass ihr geradezu mythische Eigenschaften zugeschrieben werden.
Nicht ohne Grund fühle ich mich im Kontext von KI an Filmszenen mit schwarzen Monolithen aus Stanley Kubricks Film „2001: Odyssee im Weltraum“ zurückerinnert – der wiederum auf einer Kurzgeschichte Clarkes basiert.
Dabei wäre es in unser aller Interesse besser, KI nicht länger als mythische Technologie zu behandeln, sondern sehr genau hinzuschauen. Dafür müssen wir nicht gleich an die Innereien der Technik gehen. Also zumindest nicht zwangsläufig so weit, wie in Kubricks Film, in dem der intelligente Bordcomputer HAL 9000 nach schrittweisem Entnehmen der einzelnen Bauteile nur noch Hänschen Klein singt.
Oftmals reicht auch schon die Frage: Was war nochmal das Problem?
Rassistische Rube-Goldberg-Maschinen
Beim Einsatz von KI stellt sich die Frage, ob ein komplexes Vorgehen ein entsprechendes Problem wirklich zur Zufriedenheit aller löst – oder ob es nur technologisch beeindruckend wirken soll. Maschinen ohne viel praktischen Nutzen, aber mit beeindruckendem Aufbau, heißen auch Rube-Goldberg-Maschinen – angelehnt an die Nonsens-Maschinen des gleichnamigen Karikaturisten.
Beispiel einer solchen Maschine im Kontext KI? Ende 2020 wurde bekannt, dass Twitters automatisiertes Zuschnitt-Verfahren für Vorschaubilder bestimmte Personengruppen beim Zuschnitt systematisch ausblendet. Auf den Ausschnitten zu sehen waren tendenziell eher weiße und weibliche Personen – auch wenn etwa schwarze Personen gleichzeitig mit auf einem Bild waren. Twitters technisches Verfahren war nachweislich rassistisch und sexistisch, wie Twitter selbst zugeben musste.
Die genaue Herkunft dieser Schlagseite? Liegt irgendwo in der Auswahl der Bilder aus der westlich geprägten Welt, auf die das Machine-Learning-Modell trainiert wurde. Oder der kulturell einseitigen Auswahl der Proband*innen, deren visuellen Fokus man mittels Eye-Tracking-Daten nachstellen wollte. Aber auch Methoden zum automatischen Bildzuschnitt anderer Hersteller zeigen ähnlichen Bias.
In der eigenen Auswertung des Verfahrens kam Twitter schließlich selbst zu der Erkenntnis, dass die bessere Lösung in diesem Fall darin besteht, die User bei der Auswahl des Bildausschnitts einzubeziehen. Die komplexe automatisierte Lösung sollte ein Problem beheben, hat dabei aber nur neue geschaffen.
Evidenz und unklare Problemfelder
Zur Ehrenrettung der KI sei gesagt, dass es viele Problemfelder gibt, in denen Computermodelle ein Problem inzwischen gut, schnell und teilweise besser als ein Mensch lösen können. Aber hierfür gibt es eben Bedingungen: Es müssen Probleme sein, die mit einem bestimmten Datensatz oder Input evident und klar deterministisch lösbar sind.
Ein Beispiel aus der Medizin: Inzwischen empfiehlt die Weltgesundheitsorganisation für das Screening von Tuberkulose offiziell den Einsatz von „computerunterstützter Erkennung“. Hier zeigt sich ein klar definiertes Problemfeld, das durch die Analyse von Daten gut gelöst werden kann: Röntgenbild, Analyse, definierbares Ergebnis. Das ist doch mal ein Problem.
Ein anderes Beispiel: In der Pandemie hingegen gab es Unmengen an KI-Tools, die sich am ständig verändernden Problemfeld der Pandemie versuchten. Die meisten scheiterten. Speziell in der Frage der individuellen Coronavirus-Übertragungen von einer Person zu einer anderen tauchte sie immer wieder auf: die naive Vorstellung, mit Daten und KI alles lösen zu können.
Was dabei selten betrachtet wurde: Dass wir maximal Begegnungen von Personen nachverfolgen konnten, nicht aber haarfein, wie die Pathogene des Corona-Virus in Aerosolen oder Tröpfchen durch die Gegend fliegen und möglicherweise Menschen infizieren. Mehr als Warnungen und ungefähre Risikobewertungen anhand von Begegnungen sind also datenbasiert gar nicht drin.
Dennoch wurden noch 2021 präzise Bewegungsdaten zur Kontaktnachverfolgung gefordert – wohl auch im Glauben an Möglichkeiten mittels KI und trotz der ohnehin schon überlasteten Gesundheitsämter. Es wirkt fast wie der Glaube an digitale Homöopathie. Man weiß, dass bestimmte Daten oder KI ein bestimmtes Problem nicht direkt lösen werden, fordert aber trotzdem mehr davon. Was war noch mal das Problem?
Ähnlich gutgläubig an den bloßen Technosolutionismus scheint die EU gerade im Bereich Chatkontrolle oder biometrischer Videoüberwachung zu handeln – so als würde eine umfassende Überwachung aller Nachrichten, dunkler Ecken und Grenzübergänge Gewalt, Terror und Verbrechen verhindern können.
Exploration versus Exploitation
Die aktuelle Welle des KI-Hype dreht sich um Bild-Generatoren und Chatbots: Das nächste große Ding, wie es im aktuellen Podcast von netzpolitik.org heißt. Diese Tools – ChatGPT für Texte und Dialoge oder Stable Diffusion für Bilder – sind durchaus interessant in der Automatisierung von semikreativen Aufgaben. Hier ein schnell erzeugter, wolkiger Text, eine schnelle Antwort auf eine Frage, da ein immer wieder neues generiertes Stockfoto. Mal gucken, was da so rauskommt.
Aber: Bloß, weil du im Digitalen ein paar Worte halbwegs sinnig automatisch aneinanderreihen kannst, heißt das noch nicht, dass du die ganze Welt verstanden hast. Schlimmer noch: Massenhaft automatisierter Content könnte dazu führen, dass es zu einer Bloat-Data-Eskalationsspirale kommt. So könnte man es nennen, wenn viel automatisierter, eher belangloser Content um wenig originären oder sogar faktisch falschen Inhalt herum erzeugt wird.
Was wiederum Gegen-KI heraufbeschwört, die automatisiert die vielen neuen Inhalte wieder auf den eigentlichen Inhalt runterbricht. Rube-Goldberg-Maschine mal zwei.
Eine gewisse Vorfreude hätte ich auf KI-Systeme, die auf schwer verständliche Verwaltungskommunikation trainiert wurden. Mit ihrer Hilfe könnte man eines Tages vielleicht sogar Leistungen wie das Elterngeld oder die Steuer so abwickeln, dass sie in einfacher Alltagssprache für alle verständlich sind. Was war noch mal das Problem?
Es gibt noch andere Probleme in der Entwicklung solcher Systeme: Die Ergebnisse mancher KI-Systeme sind nur durch Ausbeutung von Arbeit möglich geworden. Etwa mit Hilfe von Clickworkern, die ChatGPT durch prekäre Klickarbeit optimieren mussten, damit da keine schädlichen Inhalte rauskommen. Bei Bildgeneratoren ist die Copyright-Frage hinsichtlich des Trainingsmaterials noch nicht abschließend geklärt, zumindest aus Sicht von Künstler*innen und Bildagenturen, die gerade gegen die Firmen vor Gericht ziehen. Hier sieht man jetzt schon Ansätze von Bloat-Data-Eskalation: Mit Stable Attribution gibt es bereits ein KI-Modell, um die möglichen, nicht attribuierten Ausgangsbilder aus Stable Diffusion zu finden.
Für maschinell erzeugten Text gibt es inzwischen KI-Text-Detektoren, um menschlichen von maschinellem Text zu unterscheiden – interessanterweise sogar von OpenAI selbst, der Firma hinter ChatGPT. Die Ergebnisse von KI mit KI reparieren zu müssen, ist doch irgendwie eine seltsame Problemlösung. KI bald überall, für jedes Problem? Nun lässt sich mit einer technischen Lösung allein nicht jedes beliebige Problem lösen. Für manche Probleme ist die sogenannte künstliche Intelligenz dieser Tage möglicherweise eine Lösung, für manche aber eben eindeutig nicht. Gerade wegen KI bleibt immer die Frage: Was war noch mal das Problem?
Ich würde die Chatkontrolle nicht in Techsolutionism einordnen. Die EU-Kommission (und auch die Mitgliedsstaaten) weiß ganz genau, dass sie damit das adressierte Problem nicht lösen kann. Die Chatkontrolle ist einfach nur ein schlecht getarnter Angriff auf Software- und Hardwareautonomie. Und als solche ist sie brandgefährlich – für uns alle.
Ansonsten schöner Artikel! Weiter so! Ich bin ein großer Fan der Degitalisierungs-Kolumne. :-)
Naja, in gewisser Weise ist schon der Vorschlag „Solutionism“, insofern als dass irgendwer die technische Seite zum Vorschlag für eine „Problemlösung“ macht.
Anstelle des Förderns von Jugendschutzinfrastruktur in Messengern, Browsern und Betriebssystemen (Optionen, nicht Zwang), und dem Mitnehmen oder im Falle von Zwangsfetischismus dann auch Inhaftungstellen von Eltern, versucht man hier die Welt mit Jugendschutzleder zu pflastern, statt das Verwenden von Schuhen zu fördern.
Natürlich bedeuten die vorgeschlagenen Konzepte derzeit einen Angriff auf (mögliche) IT-Infrastruktur und Schutzkonzepte.
sehr treffend auf den punkt gebracht, dass der gegenwärtige technologieglaube noch lange nicht bedeutet, dass technologie unsere probleme löst.
Gut gebrüllt, Löwin! :-)
Als Bestätigung möchte ich die „Zehn unveränderlichen Gebote der Sicherheit“ anführen. https://uptakedigital.zendesk.com/hc/en-us/articles/115000412533-10-Immutable-Laws-Of-Security-Version-2-0-
Insbesondere:
7. Verschlüsselte Daten sind nur so sicher wie der Schlüssel.
10. Technik ist kein Allheilmittel. :-)
Wer eine bessere Vorstellung von der Arbeitsweise von ChatGPT bekommen möchte, dem sei der folgende englischsprachige Artikel ans Herz gelegt. Das Modell einer verlustbehafteten Kompression (wie bei JPEG) eignet sich gut.
https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web
Solange Aussagen von Ämtern in Deutschland wie „Wir dürfen keine eMails mehr verschicken, das verstößt gegen den Datenschutz.“ getroffen werden, kann man die komplette Digitalisierung vergessen und auf die Müllkippe werfen.
Denn eine KI ersetzt weder Intelligenz von Menschen, noch ersetzt eine KI fehlende Medienkompetenz, ebenso kompensiert eine KI keinen Bildungsnotstand.
>> unsere Kolumnistin … fragt sich, was Technologie eigentlich alles lösen soll. <<
IT-Protagonisten stehen unter ideologischem Solutionismus-Verdacht. Was mich betrübt ist, dass Konsumenten und Politik so gnadenlos darauf hereinfallen, und der Fach-Journalismus jeden Hype bereitwillig befördert.
Wer mit beabsichtigter Effizienzsteigerung mehr und neue Probleme schafft, Abhängigkeiten ausblendet, und Folgekosten nicht berücksichtigt, sollte auf einen weniger schädlichen Arbeitsplatz wechseln.
Vielen Dank! Sie gehören zu den Wenigen, die die Diskussion auf eine vernünftige Ebene bringen.
KI generell zu verteufeln, weil sie in der Regel einfach nicht verstanden wird, ist genauso falsch wie der Hype, KI könne nahezu alles. Die Hysterie, die bei manchen ausbricht, weil jetzt die Kreativität stirbt, Hausarbeiten, Bachelor- und Masterarbeiten usw. nicht mehr prüfbar seien, ist Folge der aus meiner Sicht falsch bzw. nicht verstandenen Technik.
Und das ist für mich das eigentliche Problem: Nach wie vor verstehen nur Fachmenschen, wie KI im speziellen und IT im generellen wirklich funktioniert, was sie kann und eben nicht kann. Umso angenehmer und hilfreicher fand ich Ihre Kolumne.