Innerhalb eines halben Jahres hat sich das vormals exotische Thema Datenjournalismus zu einem ernstzunehmenden Genre gemausert. Es ist zwar weiterhin eine spezielle Nische, die sich zwischen Infografik und Multimedia-Storytelling behaupten muss. Aber 2011 dürfte deutlich werden, dass diese Nische ein wichtiges Alleinstellungsmerkmal für Onlinejournalismus werden kann. Auch in dem Zusammenhang sollten Zeitungsverlage und Medienhäuser endlich aktiv für Netzneutralität, Informationsfreiheit und OpenData eintreten.
Klickstrecken, „Bewegtbild“, Podcasts und so weiter sind nur Remixe althergebrachter Medienformate. Datenjournalismus dagegen setzt auf Datenbanken und Interaktivität, die nur im Browser oder einer App funktionieren können. Er bohrt die Möglichkeiten auf, die über den Rahmen herkömmlicher Infografiken hinausweisen: data-driven journalism ist nicht nur Recherche sondern auch Veröffentlichungsformat; es kann Lesern Recherche-Umgebungen bieten, die den Einstieg in große Datensätze ermöglichen und diese dabei gleichzeitig in den Kontext klassischen Journalismus‘ setzen: Berichterstattung, Hintergrund, Analyse, Reportage.
Datenjournalismus grenzt sich vom althergebrachten CAR (computer-assisted reporting) ab, das rein auf Seiten der Recherche passiert. Letztlich meint Datenjournalismus ja immer auch die Bereitstellung der Rohdaten, bestenfalls im Sinne von OpenData in offenen maschinenlesbaren Formaten.
Die Veröffentlichung der Afghanistan-Kriegstagebücher im Juli 2010 dürfte als Durchbruch für Datenjournalismus gelten. Guardian und NYT demonstrierten, wie online zehntausenden Dokumenten aufbereitet werden können. Die zweite Welle, die Irak-Tagebücher, zeigte auch, wie die selben Redaktionen Erzählformate in Datenartikeln weiterentwickelten. Spiegel Online konnte in beiden Fällen nicht mithalten.
Grenzen von Datenjournalismus
Allerdings wies der dritte Wikileaks-Datensatz von Ende vergangenen Jahres – die Botschaftsdepeschen – auf, wo die Grenzen für Datenjournalismus liegen. Während die Militärdaten klar strukturiert und somit verhältnismäßig einfach aufzubereiten waren, sind die oft sehr ausführlichen diplomatischen Texte schwer automatisch zu sichten.
Klar ist aber, dass es immer mehr große Datensätze geben wird, die Mittelpunkt einer Berichterstattung werden. Das liegt nicht nur daran, dass die Zahl der Leakingplattformen wächst. Vielmehr ist der Aufstieg von OpenData und OpenGovernment im vergangen Jahr ein weiterer Hinweis auf die zunehmende Bedeutung von Datensätzen in Politik und Gesellschaft. Journalismus, der sich selbst ernst nimmt, muss sich diesem Feld widmen. Mit der ihm eigenen Spezifik und seinen Werkzeugen. Von letzteren gibt es immer mehr, die auch von Nicht-Programmieren zu bedienen sind.
Echtzeit und hyperlokal
Onlinejournalismus kennt keinen Redaktionsschluss mehr. Die Zunahme an „Live-Blogging“ ist ein Fingerzeig dafür. Datenjournalismus kann hier auftrumpfen, da er das Echtzeit-Web filtern kann: Twitter und Facebook sind Seismographen für aktuelle Vorgänge. Darauf setzt beispielsweise Yahoo, das seine Finanzmarktberichterstattung mit Informationen des Dienstes StockTwits aufwertet.
Genauso wie im Echtzeitweb der aktuelle Zeitpunkt immer bedeutender wird, besinnt sich die auf Globalität ausgelegte Internettechnologie wieder auf den aktuellen Standort des Users. Das führt einerseits zur „Gamification“ des Alltags durch Dienste wie FourSquare. Doch kann das viel gehypte „hyperlokal“ durch den Zugriff auf Datenbanken, etwa voll mit OpenData, wirklich qualitativen informationellen Mehrwert bieten. Hier ist viel Platz für neue Erzählformate und Journalismusformen.
Datenjournalismus hat allerdings zwei zentrale Probleme. Er ist arbeitsaufwendig, erfordert Recherche und „computer-literacy“, also die Fähigkeit des Journalisten, den Rechner zu bedienen und gar Programmierkenntnisse an den Tag zu legen. Sprich, es braucht das Berufsbild des Datenjournalisten, der in der Redaktion als Liaison dienen kann. Der einerseits als Vermittler zwischen Redakteuren und Programmieren fungiert; der in die Rolle des Produzenten von Datenartikeln schlüpft. Diese Person muss nicht zwangsläufig programmieren können, aber wissen, was technisch möglich und welcher Aufwand nötig ist. Der Datenjournalist muss dies allen Beteiligten, nicht zuletzt auch der Verlagsseite, deutlich machen können.
Mangelnder Mut bei Verlagen
Das zweite Problem ist fundamentaler. Die mangelnde Stiftungslandschaft in Deutschland im Vergleich zu der in den USA, die dort fleißig neue Journalismusformen sponsert, ist nur Ausdruck davon: Es handelt sich um ein kulturelles Problem, das des mangelndes Mutes in Verlagshäusern und Redaktionen, neue Formate und Konzepte auszuprobieren. Lieber wird sich weiterhin Online an Zeitungs- und Zeitschriftenformaten abgearbeitet. Oder es wird dem Marketing-Geblubber von Apple und den Prognosen journalistischer Unheilsbringer wie Rupert Murdoch und Mathias Döpfner hintergelaufen. Denen wird geglaubt, dass der heilige Gral in Sachen Onlinejournalismus, ein schlüssiges Erlösmodell, hinter der Paywall – der Zahlschranke – liegt. Warum wird stattdessen nicht auf Micropayment gesetzt, das grandios in der Gamingindustrie funktioniert, bei Flattr brauchbare Ergebnisse zeigt und letztlich den Weg in Richtung Kulturflatrate weisen kann? Überhaupt stünde es den Zeitungsverlangen und ihnen anverwandten Unternehmen gut zu Gesicht, die Infrastruktur, von der sie profitieren, auch zu pflegen. Also konsequent eine Lanze für Informationsfreiheit und Netzneutralität zu brechen.
Doch wird das an einem nichts ändern: Einem Teil des Journalismus‘ steht der radikale Umbruch erst noch bevor. Neue semantische Fähigkeiten von Software werden einen Teil der gängigen Journalismusberufe durch Automatisierung ersetzen. „Demand Media“ ist ein Vorgeschmack davon, was Algorithmusjournalismus bedeuten wird: Software bereitet Artikel und Themen vor, Menschen fungieren nur noch als Kontrolleure. Die klassische Nachrichtenberichterstattung wird immer weniger Journalisten brauchen, vor allem falls Spracherkennung in den kommenden Jahren automatisch transkribieren kann.
Automatisierung des Journalismus
Wer dieser Prophezeiung nicht Glauben schenken mag, sollte sich den raschen Aufstieg der Statistik im Sportjournalismus betrachten, dem Vorreiter des Datenjournalismus. Oder einmal ein aktuelles Fußballcomputergame spielen und auf die automatisierten Kommentatoren achten. Diese Form von Automatisierung lässt sich auf diverse Themenbereiche ausweiten, die heutzutage die Seiten füllen. Nur zu oft sind das von Hand gekürzte Texte von Nachrichtenagenturen. Warum sollte eine Software nicht automatisch Sätze wegstreichen können?
Was bleibt also dem Journalist, der nicht Reportagen, Feuilletonartikel, Analysen und Kommentare schreibt? Er kann sich in die Richtung orientieren, die derzeit gerne als „Kurator“ bezeichnet wird. Er begibt sich auf Recherchereise in Datenberge, gräbt Zusammenhänge aus und bereitet sie in Datenanwendungen auf. Letztlich ist das die digitale Rückbesinnung auf journalistischen Tugenden, die gerade ihre Renaissance in immer mehr Rercherchepools findet (die manche als verkappte Sparmaßnahmen sehen). So oder so: 2011 wird ein spannendes Jahr für den Online-Journalismus.
—
Lorenz Matzat versuchte sich im April 2010 an einer Definition von Datenjournalismus auf netzpolitk.org. Er bloggt für Zeit online zu OpenData und schreibt auf datenjournalist.de über neue Journalismusformen.
Die Herausforderung des Journalismus 2.0 ist die Vereinigung vieler Komponenten:
1. Effektive und sichere Recherche – Hoaxes werden, wie der Fall „Jahrtausendwinter“ eindrucksvoll zeigt, unglaublich schnell massenhaft verbreitet und erschweren gründliche Recherchen.
2. Ansprechende und verständliche Aufbereitung der Fakten, ohne Schnell-Weg-Klick-User zu langweilen.
3. Interaktive Medien einzubinden und so zu platzieren, dass sie zum Mitmachen anregen.
4. Ohne reißerische Headlines auskommen und trotzdem ausreichend Klicks generieren, um eine Projektfinanzierung zu ermöglichen.
Finanzierung? Ja, Finanzierung! Mal ehrlich: von irgendwas müssen wir schließlich alle leben, und intensive Recherchen kosten Zeit. Das geht – aber die Medien 1.0 haben noch nicht begriffen, wie das im Web 2.0 funktioniert. Das hat Frau Piel höchst eindrucksvoll demonstriert und wurde ja an verschiedenen Stellen schon erschöpfend berichtigt.
Das ist also die Herausforderung, der sich Journalisten im Web stellen müssen. Und alles vereinen fällt den meisten noch sehr schwer.
In diesem Sinne ist es übrigens dringend notwendig, dass sich die Leute mit den Informationsfreiheitsgesetzen ihrer Bundesländer auseinandersetzen und bei Novellen entsprechend darauf drängen, dass der Staat seine Daten anständig und nützlich veröffentlicht.
Das müsste sich erst einmal auf breiter Fläche in den angelsächsischen Ländern durchsetzen, bevor es in Deutschland eine Chance hat. Der Guardian ist ja einer der großen Vorreiter, aber es wird schon seinen Grund haben, warum man von den anderen englischen Zeitungen nichts dergleichen hört.
Das größere Problem dürfte die generelle Technikfeindlichkeit deutscher Journalisten sein. Ich bin selber in eine Mailingliste, und die meisten der Damen und vielen Herren kennen sich mit Web 2.0 ungefähr so gut aus wie ich mit Jazzmusik. Nun muss man das Zeug nicht mögen, aber man muss es zumindest mal ausprobiert haben, um es nicht zu mögen oder mitreden zu können. Wie sollen sie da Informationen technisch aufbereiten können, was viel intimere Computerkenntnisse verlangt?
Passt ganz gut: http://blogs.wsj.com/digits/2010/12/22/everything-the-internet-knows-about-me-because-i-asked-it-to/