Datenjournalismus

Datenjournalismus: Definition und Prinzip

Datenjournalismus

Beim Datenjournalismus (Data Driven Journalism,ddj) stehen Datensätze im Mittelpunkt der journalistischen Recherche sowie der Berichterstattung. Entsprechend umfasst der Begriff nicht nur die Suche in Datenbanken, sondern auch die Aufbereitung - also Analyse, Validierung, Visualisierung und Publikation dieser Daten.

Mithilfe von interaktiven Anwendungen oder Tools lassen sich durch große Datenmengen, die in Tabellenform unüberschaubar wären, Aussagen treffen. Die Software greift direkt auf die Datensätze zu und bildet eine Geschichte ab. Typische Beispiele für Datenjournalismus sind interaktive Karten zu einer Fragestellung oder einem Themenkomplex – wie viel Fleisch wurde die letzten Jahre konsumiert; wie breitete sich ein bestimmter Virus aus etc. Anders als in einem statischen Bericht stehen die Hintergrunddaten hier zur Verfügung, dementsprechend können Nutzer selbst „recherchieren“ beziehungsweise spezifizieren, indem sie eine Fragestellung zum Beispiel auf ihre Region eingrenzen. Der Leser findet also eine interaktive Rechercheumgebung vor, in der er sich anhand von aufbereiteten, visualisierten Daten ein eigenes Bild machen kann.

Drei Aspekte müssen für die Definition „Datenjournalismus“ erfüllt sein:

  • Ein oder mehrere Datensätze spielen eine zentrale Rolle
  • Das Angebot muss dem Leser eine eigene Auseinandersetzung mit dem Datensatz ermöglichen
  • Informationen müssen dynamisch anhand verschiedener vom Nutzer festgelegter Parameter präsentiert werden können (z.B. Zeitpunkt, Ausschnittgröße, Standort, Suchbegriff, Wert)
  • Ein möglicher Pluspunkt ist, wenn Nutzer Datensätze einsehen, herunterladen sogar weiterverwenden können

(vgl. Bundeszentrale für politische Bildung, 2011)

 

Abgrenzung zum klassischen Journalismus und Möglichkeiten des Datenjournalismus

Anders als im klassischen Journalismus, wo Daten als Unterfütterung eines Berichts dienen, sind sie im Datenjournalismus zentraler Gegenstand der Berichterstattung. Dementsprechend bietet Datenjournalismus anschaulich präsentierte Antworten auf unzählige spezifische Fragestellungen, da die Recherchequelle direkt in der Anwendung abgefragt wird. Gleichzeitig kann in den aufbereiteten Datensätzen auch nach Jahren noch einfach recherchiert werden und die Quelle lässt sich mit neuen Datenbanken und Datensätzen verknüpfen. Gleich bleibt, dass Journalisten die Vorarbeit übernehmen: sie filtern aus, welche Daten überhaupt relevant sind und stellen entsprechende Hypothesen oder Fragestellungen dazu auf.

 

Pioniere im Bereich Open Data und Datenjournalismus

Die Vorläufer des heutigen Datenjournalismus reichen zurück in die sogenannte „computergestützte Recherche“. Erst mit der Erweiterung von der reinen Recherche zur computerbasierten Verarbeitung der Daten ergab sich das neue Feld Datenjournalismus. Prominenz erlangte die neue journalistische Form mit der 2007 gegründeten Seite WikiLeaks. WikiLeaks ermöglichte das anonymisierte Hochladen von geheimen Daten, die unter anderem die Enthüllungen durch Edward Snowden sowie die Aufdeckung diverser weiterer politischer Affären mit sich brachte. Als Pioniere des Datenjournalismus gelten u.a. der guardian, der seinerzeit die Enthüllungen Snowdens veröffentlichte und Die Zeit. Im DataBlog der Zeit http://blog.zeit.de/open-data/category/datenjournalismus/ und des guardians http://www.theguardian.com/data werden regelmäßig neue Grafiken aus dem Bereich Datenjournalismus online veröffentlicht. WikiLeaks erlaubte ab 2010 keine Uploads mehr, seit Mai 2015 können Daten wieder sicher verschlüsselt hochgeladen werden.

 

Maschinell erfassbare Daten: Voraussetzungen für Datenjournalismus

Datensätze müssen maschinell lesbar und in Tabellenform angelegt sein. Sie bestehen also in erster Linie aus Zahlen: Statistiken über Geburtsraten, Einkommen oder Verbreitungen von Technik, kombiniert mit weiteren Zahlensätzen – wie Zeiträume und demographische Verteilungen geben Aufschluss über unzählige Fragestellungen, die z.B. in einer Karte übersichtlich dargestellt werden. Diese Daten werden in Zukunft noch um ein Vielfaches ergänzt - nicht nur durch statistische Erhebungen, sondern auch durch die Zunahme an vernetzten Geräten und Sensoren werden unzählige Daten gesammelt und aufbereitet – von der Datensammlung in der Landwirtschaft bis hin zur elektrischen Zahnbürste. Diese Massen an Daten werden Big Data genannt. Die größte Herausforderung aller Projekte die Big Data betreffen, besteht in der Aufbereitung dieser Datenmengen.

 

Open Data Lizenzierung

Um Datensätze überhaupt verarbeiten zu können, müssen sie natürlich verfügbar sein. Sensible, personenbezogene Daten, wie z.B. Gerichtsakten unterliegen dem Datenschutz und bleiben generell unter Verschluss. Auch Daten von kommerziellem Interesse sind nicht frei zugänglich. Als öffentliches Gut fordert die Open Data Bewegung jedoch u.a. Informationen, die von Interesse der Allgemeinheit sind, z.B. Umwelt-; Entwicklungs- und Verkehrsstatistiken. Das Ziel der Bewegung ist, mehr Transparenz zu schaffen, indem Informationen von allgemeinem Interesse nicht nur veröffentlicht werden, sondern auch maschinell lesbar und zur freien Nutzung lizenziert sind. Plattformen wie govdata.de bieten mittlerweile eine große Zahl maschinell erfassbarer Behördendaten zur freien Weiterverarbeitung. Trotzdem unterliegt eine Vielzahl an Daten in Deutschland dem Urheberrecht und wird von Behörden nur zögerlich bereitgestellt.

 

Quellen:

Bundeszentrale für politische Bildung. Datenjournalismus. 2011. http://www.bpb.de/gesellschaft/medien/opendata/64069/datenjournalismus)

Matzat, Lorenz. Datenjournalismus: Methoden, Prozesse und Kompetenzen. 17. Juni 2014. http://www.fachjournalist.de/datenjournalismus-methoden-prozesse-und-kompetenzen/

 

Bildnachweis:

Foto - "Writer" von olly - Fotolia

 

bpwd mein Chef CodeOfConduct

Copyright © 2019 content.de AG