Gestern fand das erste Data Journalism Meetup in Berlin statt. Dort wurden Ideen und Ansätze vorgestellt, wie sich die Art wie Nachrichten gesammelt, präsentiert und konsumiert werden verändern wird durch die Aggregation von Daten, deren Verknüpfung und vor allem optische Aufbereitung.
Die interessantesten dort vorgestellten Projekte möchte ich euch nicht vorenthalten:
Guardian.co.uk: Auswertung der Ausgaben von Parlamentariern. Ein klassisches Crowdsourcing-Projekt, bei dem 458.832 Dokumente von Nutzern gesichtet und als relevant oder irrelevant markiert werden können. Den Journalisten des Guardian wird so dabei geholfen, den Datenberg auszuwerten und über interessante Details zu berichten.
Semantic-web-basierte Angebote der BBC: Umgesetzt mit RDF, XML und bis zu 800 dynamischen Aggregationen pro Seitenaufruf sind die Seiten zur Fußball-WM und BBC Earth Paradebeispiele für effiziente und sinnvolle Datenbanknutzung.
L.A. Times: Grading the Teachers: 6.000 Grundschullehrer und 470 Grundschulen aus Los Angeles lassen sich anhand des Abschließens der Schüler in normierten Abschlusstests bewerten.
Gerd Kamp vom dpa Newslab warb für das Meta-tagging von Tickermeldungen insbesondere mit GPS-Koordinaten und Relevanzbereichen (Bsp. Regionalligaspiel vs. WM-Finale) und zeigte interessante Echtzeit-Visualisationsmöglichkeiten auf der Basis von Ort, Priorität, Relevanzbereich, und natürlich der Zeitachse.
Interessant ist, dass die vorgestellten deutschen Projekte meist im beta-Stadium waren, während Amerikaner und Briten mit interessanten und erfolgreich laufenden oder abgeschlossenen Projekten prahlen konnten. Über mögliche Gründe dafür philosophiert Marc Belam in seinem Blogpost zur gestrigen Veranstaltung.
Angenehm war, dass bei allen Vortragender der Nutzen der Daten für die Allgemeinheit im Vordergrund stand, und finanzielle Interessen nicht die Hauptrolle spielten. Natürlich ließ es sich das Publikum aber nicht nehmen, mal zu fragen, wie man denn mit diesen offenen Daten Umsatz generieren, und die Projekte finanzieren wolle. Martin Belam antwortete auf eine solche Frage sinngemäß: „Ich glaube nicht, dass das was wir machen profitabel ist, aber von den vielen Millionen Pfund Verlust, die der Guardian im letzten Jahr gemacht hat, machen wir immerhin nur einen sehr kleinen Teil aus.“
Ganz so schlimm scheint es um die Zukunft des Journalismus aber gar nicht zu stehen: Wenn zu großen Events wie beispielsweise Wahlen alle großen berichtenden Redaktionen eigene einzelne Datenbanken anlegen, die am Ende des Tages trotzdem exakt gleiche Inhalte haben, ist das auch nicht besonders ökonomisch, wurde auf der Panel-Diskussion angemerkt.
Wirtschaftlich scheint der Trend also zur „co-op-a-petition“, Kooperation beim Sammeln der Daten, Wettkampf bei deren Aufbereitung, zu gehen.
Mal schaun, wie sich das entwickelt…abwarten heisst die Parole
Zum Thema Data Journalism haben Kooptech und Ulrike Langer immer interessante Berichte und Links. Lesen lohnt sich.
„Wenn zu großen Events wie beispielsweise Wahlen alle großen berichtenden Redaktionen eigene einzelne Datenbanken anlegen, die am Ende des Tages trotzdem exakt gleiche Inhalte haben…“
OK, die Redundanz ist offensichtlich aber das entscheidende ist hier das WENN. Ich erinnere an FOX vs. CNN wo je nach Sender ein Anderer Präsident wurde. Gibts da keine Bedenken? Ich bin da überhaupt kein Experte aber die Datenschützer warnen ja immer vor den grossen, zentralen DBs.