Auch das noch: Ein weiterer Journalismusbegriff. Nach Daten, Drohnen- und Sensorjournalismus kommt jetzt auch noch Roboterjournalismus. Bei ihm dreht es sich um Software, die in Teilbereichen des Journalismus selbstständig Artikel und Berichte erstellt. Vornehmlich wird er im Nachrichtenjournalismus, der Berichterstattung stattfinden – und nicht bei Analyse, Kommentar, Interview und Investigation. Bislang geschieht solcherlei nur experimentell, etwa bei Forbes. Doch bis 2020 dürften nicht wenige Jobs im Journalismus von Maschinen erledigt werden.
Warum dem so ist, will ich hier darstellen. Der erste Teil skizziert, welche Arbeit Roboterjournalisten übernehmen werden. Im zweiten Teil werde ich begründen, warum das nicht nur vage Science Fiction ist. Man mag sich streiten, ob Roboterjournalismus als Begriff taugt. Angesichts einer bislang mangelnden Alternative wird er hier für Algorithmenmaschinen, die komplizierte Arbeitsschritte in einem gewissen Grad autark erledigen können, verwendet.
Roboter als Assistent
In der ersten Phase werden Roboter redaktionelle Assistenz leisten: Automatisierte Recherche, Faktenüberprüfung, Scannen von Social Media und Sensornetzwerken; Mitlesen-, -hören, -schauen von Websites, Radio- und TV-Sendern. Entsprechend werden sie in den Redaktionssystemen Gerüste für Beiträge anlegen, die schon Fakten, Satzbausteine, Zitate und Links enthalten (Bsp.: Quakebot der L.A. Times, siehe unten). Denkbar ist auch, dass während ein Autor an einem Beitrag arbeitet, Software das bislang Verfasste interpretiert und entsprechend ständig weiteres Material sowie Satzbausteine heranschafft. Software wird zudem auch Bilder vorschlagen, schlichte Diagramme kreieren, Karten- und Videoausschnitte bereit stellen. Ein weiteres Einsatzgebiet der Assistenz werden Live-Ticker und Plattformen wie Storify sein.
Nachrichtenagenturen liefern ihre Texte schon recht strukturiert aus, z.B. als NewsML; diese zuzuschneiden und in ein Redaktionssystem einzupassen, ist technisch einfach, weil inhaltlich gar nichts erfasst werden muss. Doch das alleine wäre schlicht Automatenjournalismus. Doch Spracherkennung (man schaue sich die automatisierte Untertitelung englischer Beiträge bei YouTube an) wird immer besser – Politikerreden bei Phoenix, im Bundestag-TV oder andere Streams zu monitoren, kann Software übernehmen. Mittels semantischer Verfahren, Vergleiche mit anderen Reden aus Archiven, aber auch durch Auswertung der Resonanz bei Social Media wird sie die Kernaussagen von Reden identifizieren. Damit liesse sich der weiterverbreiteten “Verlautbarungsjournalismus”, der mehr oder minder unterhinterfragt Ausschnitte aus Pressekonferenzen wiedergibt, automatisieren.
Die zweite Phase im Roboterjournalismus wird dann eintreten, wenn die semantischen Fähigkeiten der Algorithmen so weit gediehen sind, dass sie in brauchbarer Qualität Beiträge für eine Vielzahl von Themenbereichen erzeugen können. Die kontrolliert dann noch ein Mensch vor Veröffentlichung und greift ggf. sprachlich etwas ein. Je mehr Informationen über Schnittstellen (API) daherkommen, je mehr Vorgänge gemessen und in Metriken beschrieben werden, um so mehr Bereiche der Berichterstattung werden sich automatisieren lassen. Und die Software wird immer besser werden, weil sie lernt. Wie gesagt, es wird nicht zu dem vielgerühmte Qualitätsjournalismus per Roboter kommen; aber für das, was heute im alltäglichen Nachrichtengeschehen als Journalismus gilt, wird es allemal reichen.
Individualisierung
Der Clou an Roboterjournalismus ist, dass er Inhalte on-the-fly erzeugen und ständig aktualisieren kann: Individualisierung von Nachrichten wird so auf einem völlig anderen Niveau möglich. Nutzer erhalten anhand ihrer Schwerpunktsetzung auf ihre Hausnummer genau zugeschnittene Nachrichten. Ratsinformationssysteme ihrer Gemeinde, Pressemitteilungen, Agenturticker, Sportergebnissen, Terminkalender, Transkription von Radio, Fernseh- und Videobeiträgen, Wetter- und Verkehrssensoren in ihrer Umgebung usw. usf. werden dafür ausgewertet. Anhand dessen werden kurze Berichte verfasst und sie ggf. illustriert. Durch Sprachsynthese geht das ganze auch als Podcast. Solche Audiostücken können wiederum automatisiert mit Bewegtbild, Fotos und Grafiken zu Videos zusammengeschnitten werden.
Bislang fehlen hierzulande noch die Softwareanbieter, die Roboterjournalisten im Programm führen. Im englischsprachigen Raum sind Narrative Science und Automated Insights in diesem Bereich unterwegs. In dem Zusammenhang sei auf einen Bericht über eine neulich veröffentliche Studie verwiesen, in der es um einen Vergleich zwischen computergenerierten und von Menschen geschriebene Texte ging.
Auch im deutschsprachigen Raum dürfte es bald Anbieter von solcher Software geben; die Technologie ist zumindest in Ansätzen vorhanden, etwa im Bereich „Business Intelligence“ oder bei Kanzleissystemen. Die Qualität der Roboterjournalist-Software, der Engine, die sich ein Medienanbieter leistet oder selbst entwickelt, wird ein Kriterium sein, welche Rolle er im Nachrichtenbereich spielen wird. Neben Anbietern von Technologieplattformen (Middleware) dürften sich hier auch neue Player etablieren, die keinen klassischen Verlag im Rücken haben. Ebenso können Medienmarken aus anderen Sprachräumen mittels Roboterjournalisten einfacher Sprachbarrieren überwinden.
Rein betriebswirtschaftlich wird sich das Ganze ab einen bestimmten Preispunkt lohnen. Impuls könnte dafür hierzulande nicht zuletzt auch der Mindestlohn sein, weil sich in der eh klammen Branche die Anschaffung von Roboterjournalisten-Software lohnt. Eine neue Stufe der Automatisierung durch Algorithmen und Roboter ist selbstredend nicht auf den Journalismus beschränkt; vielmehr wird dieser Wandel viele Branchen erfassen. Das sieht jedenfalls eine Studie (pfd) aus dem vergangen Jahr über „computerisation“ in 700 Berufen in den USA so. Über sie berichtete The Economist Anfang diesen Jahres in dem Beitrag „The Future Of Jobs: The Onrushing Wave“.
Manche werden das Gerede vom Roboterjournalismus als Technologieoptimismus bzw. -pessimismus abtun. Dennoch denke ich, dass sich Journalisten und Verlage jetzt damit auseinandersetzen sollten. Denn es sich zeichnet sich ein Technologieschub in Sachen „künstlicher Intelligenz“ ab. Mehr dazu im zweiten Teil.
—
Ergänzende Links:
How to break news while you sleep – by Ben Schwenker – Link
PBS Mediashift: Will Robots Take Over Simple Tasks for Journalists? – Link
—
Crosspost von datenjournalist.de
Ich halte die Einschätzung für falsch. Der gegenwärtige Stand ist, dass die Anbieter aus strukturierten Daten Texte zusammenstellen, die über Templates und statistisch gewonnene Textausschnitte erzeugt werden.
Das hat nichts mit Sinnverarbeitung zu tun. Bitte Werbetexten und Übertreibungen von Massenmedien, die davon nichts verstehen, nicht auf den Leim gehen!
Danke für den Kommentar. Ich habe nicht vom heutigen Stand gesprochen, sondern was meiner Einschätzung nach passieren wird. Die basiert nicht auf „Übertreibungen von Massenmedien“. Algorithmen müssen, um die richtigen Textbausteine zu verwenden, in irgendeiner Form ja Relevantes von Irrelevantem unterscheiden können. Ob das dann schon Sinnverarbeitung ist, lässt sich sicherlich drüber streiten. Wo fängt die denn ihrer Meinung nach an? Jedenfalls, wie oben schon gesagt, für das Niveau der „Sinnverarbeitung“, das wir derzeit oft im medialen Alltagsgeschäft erleben, reicht die Technologie schon heute.
Ich kann die These leider nicht stützen. Es ist ja Ihre These, „Algorithmen müssen, um die richtigen Textbausteine zu verwenden, in irgendeiner Form ja Relevantes von Irrelevantem unterscheiden können.“. Relevanz können sie, denn das heisst, menschliche Reaktionen auszuwerten (Backlinkanzahl zum Beispiel), Google macht es vor.
Beim sog. Roboterjournalismus (Computational Journalism finde ich weniger boulevardesk) werden Texte erzeugt, nicht die Relevanz von Texten ermittelt.
Maschinen machen Symbolverarbeitung, Buchstabe für Buchstabe sozusagen, und wenn sie Wörter entdecken, dann liegt das an Wörterbüchern und Mustern, die sie statistisch wieder erkennen. So kommt es zB zu guten Übersetzung bei Google Translate, weil tausende von Texten durchgeparst und statistische Häufigungen von Zeichen- und Wortketten erkannt werden. Wir sind noch lange nicht imstande, syntaktische Strukturen formal in Computern abzubilden, geschweige denn, diese Strukturen zu erzeugen. Was als RJ bekannt ist, ist ein Haufen Statistik. Die Semantik von Daten wird erkannt und hieraus mit statistischen Mitteln (ohne Semantik zu verarbeiten) ein neuer Text erzeugt.
Heisst nicht, dass man das nicht brauchen würde, für massenhafte Informationsverarbeitung. Nur: Mit Journalismus hat es nichts zu tun. Ich übertreibe mal: wenn ich in einem Excel-Arbeitsmappe in einem Blatt Daten habe und einem anderen mithilfe von Statistikfunktionen Textzellen, dann würde auch niemand auf die Idee kommen, es Journalimus zu nennen: die Ermittlung von Sinn einer Information und ihre Einordung sowie der Transfer in Sinnwelten des Publikums (als Angebot nur, versteht sich.)
PS: Schön, dass wir uns neulich kennengelernt haben.
Hier meine Anmerkungen: Zu narrativescience & Co, gibt es ja auch Geschichten, soweit ich weiss wurden sie mit dem Erstellen von Texten zu Sporte“gebnissen“ beruehmt. Koennte man ja mal erwaehen, damit man ein Beispiel hat.
Spannende Frage hierzu: Was ist der Unterschied von einem „Ereignis“ und einem „Ergebnis“. Ueber Ergebnisse zur berichten ist relativ leicht (X schoss Tor in 5ten Minute“, ueber unklare Ereignisse in einem bestimmten Kontext („auf einer Demo passierte etwas keiner weiss etwas genaues, es gibt Aussagen von XYZ), ist schon etwas komplizierter und eine Einordnung gelingt auch vielen Journalisten heute oft nicht … s. ZEIT Online, z. B. …
PS: Ich mag eure Serien mit etwas mehr Tiefblick hier, aber durch das Seitenlayout geht der „tiefere“ Artikel gegenueber den News verloren. Kann man da nicht noch was machen? Und evtl. wuerde ich alle Fussnoten am Ende noch mal auflisten, hilft beim ueberfliegen. Da gibt es auch tools fuer, aber so ist es netter.
Danke für das Kommentieren; ja, direkt konkrete Beispiele wäre vielleicht nötig, hatte gehofft, dass die diversen Links reichen. Und ja, es ist richtig: Das Beschreiben von Ergebnissen (die sich noch mit älteren vergleichen lassen) relativ einfach; die Interpretation von Vorgängen schwierig. Zum Thema „tiefere Artikel“: ein Magazinformat für netzpolitik.org wäre sicherlich ne Idee.
Wir arbeiten dran. :-)
Ich verstehe nicht ganz, wieso die entsprechenden Programme in Ihrem Wortbild auf ‚Roboter‘ bezogen werden. Zumindest aus Sicht von Softwareingenieuren, K.I.-Forschern & Co. verbindet man damit verkörperte Plattformen, die in der physischen Welt agieren.
Denke, es geht bei dem Begriff darum, sichtbar zu machen, dass hier Maschinen die Arbeit von Menschen übernehmen; ich selber bin auch nicht richtig glücklich damit, mir ist aber bislang keine bessere Alternative untergekommen.
Wenn Algorithmen programmiert werden, Daten zu durchsuchen, um das in einem exponentiell größeren Maßstab als Menschen zu tun, dann übernehmen diese Maschinen die Aufgabe von Maschinen, nicht von Menschen.
Ich denke, Ihrem Argument würde es gut tun, wenn Sie die Ebenen besser trennen: Sie beschäftigen sich aus meiner Sicht mit der Frage der Technisierung von Arbeitsabläufen im Journalismus. Dazu die Roboterjournalisten als Arbeitsplatz vernichtende Gegenfigur aufzubauen halte ich nicht für klug, da die Entscheidungen darüber von Menschen, nicht von Maschinen, getroffen werden.
Den Begriff Roboterjournalismus bzw roboter journalism habe ich nicht geprägt; der geistert schon seit einigen Jahren herum. Ich bediene mich ihm und wie gesagt, ich habe bislang keine bessere Alternative gefunden.
Welche Ebenen meinen Sie? Ich behaupte nirgends, Roboter würden entscheiden, Arbeitsplätze zu ersetzen. Ich kann Ihren Punkt nicht nachvollziehen.