Was ist eigentlich Roboterjournalismus? Teil 2: Warum die Zeit reif ist

baxter

Seit vor rund einem Monat der erste Teil “Was die Softwaremaschinen können werden” dieser Artikelserie erschien, kündigte das deutsche Softwareunternehmen Aexea an, Sportberichte automatisch generieren zu wollen. Zudem ließ der ehemalige Chef der untergegangenen Nachrichtenagentur dapd verlauten, ein deutsches “Narrative Science” starten zu wollen. Ob das gelingt, bleibt abzuwarten. Jedenfalls wird im zweiten und letzten Teil dieser Serie dargelegt, wie die Fortschritte in der Robotik und der Ausbau des Semantischen Netzes den Roboterjournalismus begünstigen. Und welche Regeln für automatisierten Journalismus gelten sollten.

Klar, Robotik ist ein Hype – spätestens seit das IT-Unternehmen Google in letzter Zeit reihenweise Robotikunternehmen kaufte. Doch Trends und Hypes sind nicht per se schlecht oder fabriziert; sie können versanden, können aber auch berechtigter Ausdrucks des Zeitgeistes sein und manchmal auf einen epochalen Umbruch verweisen. Ist es Zufall, dass in jüngster Zeit Bücher wie „Arbeitsfrei“ oder „The Second Machine Age“ erschienen? Werke, die die sich zumindest in Teilen der Automatisierung geistiger Arbeit widmen. Constanze Kurz und Frank Rieger, das Autorenpaar von „Arbeitsfrei“, verweisen etwa auf die Software von SAP, die ganze Geschäftsprozesse und damit auch die gesamte Struktur von Unternehmen, wenn nicht gar Branchen (um)formte.

Wandel durch Programmiererkultur

Mehr und mehr integrieren sich Redaktion und IT; vor allem wenn das Medium rein digital erscheint. Entwickler, also Programmierer – die Techniker und Ingenieure des Digitalen – erhalten Einzug in die Redaktionsräume; das wird auf Dauer die Kultur in Redaktionen ändern: Programmier haben meist ein recht pragmatisches Verhältnis zu Informationen und Kern ihrer Arbeit ist es, Arbeit durch Softwaremaschinen erledigen zu lassen. Und wer je in einer Redaktion gearbeitet hat, dem dürften etliche Arbeitsschritte und Routineaufgaben einfallen, die sich dort noch automatisieren lassen dürften. Kurz und Rieger meinen jedenfalls im Epilog ihres Buches:

“Je weniger spezielle Talente und Fähigkeiten ein Arbeitsplatz erfordert, je besser sich Resultate messen, analysieren und quantifizieren lassen, desto direkter und unmittelbarer ist der Wettlauf mit den Maschinen”

Apropro: “Race against the machine”, hieß ein dünnes Büchlein, das Erik Brynjolfsson und Andres McAffee vor gut zwei Jahren veröffentlichten. Ende 2013 haben die Ökonomen vom MIT ein weitere Buch nachgelegt: “The Second Machine Age”. Man muss ihre doch sehr Technologie-positivistische Sicht nicht teilen, die gesellschaftliche und soziale Fragen etwas leichtfertig streift. Dennoch ist die Herleitung, warum sie eine „zweite Industrialisierung“ heraufdämmern sehen, lesenswert. Ihrer Meinung nach ist die Geschwindigkeit, in der die Digitalisierung dank immer besserer und günstigerer Technologie voranschreitet, rasanter als weitläufig angenommen. Die Kombination aus Forschung und Entwicklung in verwandten Gebieten wäre dabei oder kurz davor, durch ihre Synergie zu einem Technologieschub zu führen. Vielleicht ist die Google-StreetView-Technologie, die mittlerweile fast fehlerfrei Captcha-Aufgaben löst, ein Indiz für diese These.

Der exponentielle Faktor

Man sei bei der Entwicklungsgeschwindigkeit auf der zweiten Hälfte des Schachbretts angelangt, meinen die beiden Forscher. Bezogen wird sich hier auf die Legende von dem Erfinder des Schachspiels, der als Lohn einzig verlangte (und zugesagt bekam), dass der Reihe nach auf jedes Feld des Brettes immer die doppelte Menge an Weizenkörnern des vorgehenden Feldes gelegt würde. Pi mal Daumen hätte das gut 900 Milliarden Tonnen Weizen ergeben. Brynjolfsson und McAffee wollen anhand des Beispiels zeigen, dass Menschen ab einem gewissen Grad schlecht den exponentiellen Faktor abstrahieren können.

Die Fehleinschätzung der Synergie verschiedener Technologiebereiche sei laut der beiden Autoren am selbststeuerndem Auto zu beobachten: Vor gut zehn Jahren sei es eine weit verbreitete Meinung gewesen, autonom fahrende Straßenfahrzeuge würden erst in einigen Jahrzehnten möglich; erst dann wären Prozessor-, Sensor- sowie Softwareleistung in der Lage, solche Fahrzeuge im Alltag einzusetzen. Tatsächlich sind nun seit vergangenem Jahr in einigen Bundesstaaten der USA unter bestimmten Bedingungen selbststeuernde Autos für den Straßenverkehr zugelassen. Ein jüngst veröffentlichtes Video gibt eine Idee davon, wie diese Autos arbeiten.

Brynjolfsson und McAffee verweisen auf die DARPA-Grandchallenge von 2004-2007 für selbststeuernde Fahrzeuge, die als Katalysator für diese Entwicklung gedient habe. Und sie denken, dass der aktuelle Forschungswettbewerb, die „DARPA Robotics Challenge“, gleichermaßen dafür sorgen wird, dass es in der Robotik deutlich voran geht. In der aktuellem Wettbewerb der staatlichen US-Rüstungsagentur geht es darum, dass in einem Katastrophenszenario (eingestürzte Gebäude usw.) Roboter komplexe Aufgaben erfüllen können (z.B. Bergung von Verletzen, Ventil schließen). Ein anderer Wettbewerb (nicht der DARPA) ist auf die Räumung von Landminen ausgerichtet.

Strukturierte Informationen

„Neurale Netzwerke“, „deep learning“ und „künstliche Intelligenz“ – digitale Technolgien werden immer besser und fähiger. Ob damit nun ein physischer Roboter oder ein Algorithmus zur Texterzeugung gesteuert wird, ist letztlich eine Frage des Softwaredesigns. Allerdings wäre Roboterjournalismus uninteressant, wenn er nur dazu dienen könnte, Sportergebnisse zu verschriftlichen. Das wäre so, als wenn das Roboter-Auto nur auf einer schnurgeraden Straße ohne andere Verkehrsteilnehmer fahren würde.

Doch immer mehr Informationen liegen strukturiert vor bzw. werden dazu umgewandelt. Roboterjournalisten können direkt an das sagenumwobende „Semantische Netz“ andocken. Siehe das Wikidata-Projekt, den schema.org-Standard oder das Vorhaben der BBC, ihre Inhalte granular adressieren zu können. Zudem wächst das Internet-der-Dinge heran, vielleicht viel langsamer, weil organischer, als die regelmässigen Hype-Runden um das Internet-of-Things glauben machen wollen.

Unstrittig ist, dass stetig die Zahl der Sensoren und mit dem Internet verbundenen Geräte enorm steigt. Roboterjournalisten können jede Regung und jeden Vorgang in dem entstehenden massiven Sensornetzwerk registrieren und ggf. beschreiben. Sie werden aus Bereichen berichten könnten, die Menschen gar nicht zugänglich sind. Vielleicht entstehen hier sogar neue journalistische Genre. 

Robotergesetze

Selbstredend birgt – wie jede Technologie – auch Roboterjournalismus Gefahren bzw. kann er missbraucht werden. Das große Vorbild Narrative Science wird von einem Venture Capital-Arm des US-Geheimdienstes CIA mitfinanziert. Die eingangs erwähnte deutsche Firma aexea verdient ihr Geld u.a. mit Suchmaschinenoptimierung (SEO) und dürfte ihre Technologie ursprünglich auch in diesem Bereich entwickelt haben. SEO ist letztlich ein spezieller Bereich der Werbewirtschaft, der je nachdem mit lauteren und unlauteren Mitteln die Position von Websites bei den Ergebnissen (SERP) von Suchmaschinen beeinflusst oder manipuliert. Hier herrscht ein ständiger Kampf der Algorithmen von Google und Co einerseits sowie andererseits denen der SEO-Firmen, die teilweise auf automatisch generierte Inhalte für “Linkfarmen” oder halbautomatische Prozesse wie Demand Media setzen.

Das heißt: Die Methoden des Roboterjournalismus‘ könnten beispielsweise eingesetzt werden, um eine automatisierte Factchecking-Schleife für Beiträge vor Veröffentlichung zu haben; könnten helfen, die Qualität zu heben. Könnten andererseits aber auch dazu dienen, um das Internet zuzumüllen oder gar systematisch und anhaltend Fakten zu verzerren oder weitflächig zu manipulieren. Etwa durch koordiniertes und nimmermüdes Bearbeiten der Wikipedia auch über Sprachräume hinweg.

Neben den Auswirkungen der Roboter auf den Arbeitsmarkt (nicht nur dem der Journalisten), denen sich Gewerkschaften und Politik beginnen sollten zu widmen, braucht es auch andere Vereinbarungen. Vielleicht ein Zertifikat oder eine Clearingstelle für Roboterjournalismus-Software, die ihr ein journalistisches Verfahren bescheinigt, einen Presseausweis ausstellt. Der Presse-Kodex könnte Maßstab für die Modellierung der Algorithmen sein, die unmittelbar für das Erstellen und Anreichern von Texten zuständig sind. Letztlich bräuchte es so simple und klare Regeln, wie die drei Robotergesetze von Asimov.

Foto oben: Roboter Baxter – Fotograf: PDTillmann, CC:by – Link

Crosspost von datenjournalist.de

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

6 Ergänzungen

  1. Guter Artikel und schöner Bezug zu Brynjolfsson/ McAffee. Es wird sicher noch etwas dauern bis Maschinen qualitativ hochwertigen Journalismus Konkurrenz machen. Zweifel habe ich an dieser Entwicklung nicht. Die klugen Köpfe werden nicht mehr gebraucht … Schlecht für sie? Schlecht für uns? Oder das Gegenteil?

    Schließlich können die speziellen Talente der Journalisten nun völlig neue Aufgaben lösen. Und Journalismus, Wissen und gut aufbereitete Informationen könnten noch mehr Menschen viel günstiger erreichen.

    Es wird schon alles gut in der schönen neuen Welt. Unless, of course, it won’t ;)

  2. Zur „zweiten Industrialisierung“ gab es schon in den 70ern Diskussionen, dass diese mit der Industrialisierung der gesellschaftlichen Informationsverarbeitung bereits unterwegs sei. Siehe etwa: Steinmüller, Wilhelm (1981): Die Zweite industrielle Revolution hat eben begonnen. Über die Technisierung der geistigen Arbeit. In: Die erfaßte Gesellschaft. Kursbuch 66. Berlin: Rotbuch Verlag. S. 152–188. Sehr lesenswert, vor allem mehr als 30 Jahre später.

  3. Erstens braucht es ein Gesetz das Robotertexte gekennzeichnet werden müssen. Der Transparenz wegen.
    Zweitens denke ich das das dann vor allem von den amerikanischen Konzernen die diese Technik beherrschen entsprechend manipuliert wird. Man braucht dem Algorythmus dann ja nur noch sagen was er nicht schreiben soll. Informationen zu zensieren wäre dann so einfach wie noch nie.

    Drittens bräuchten wir dann auch ein Bedingungsloses Grundeinkommen, denn unter solchen Bedingungen ist Vollbeschäftigung nicht mehr möglich.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.