Suche
Suche Menü

Big Data + Wissen: Rettung für den Journalismus?

Hach, früher war alles noch einfach. Science Fiction war Science Fiction und man konnte sicher sein, dass es noch lange dauern würde, bis der Warp-Antrieb tatsächlich erfunden wird. Das ist auch jetzt noch nicht der Fall, aber der aus Star Trek bekannte Tricorder dürfte schon bald beim Medienkonsum zum Einsatz kommen. Schon jetzt bietet beispielsweise You Tube automatisierte Playlisten auf Basis der vorherigen Klicks und Favoriten und Algorithmen arbeiten bereits daran, simple Texte automatisch zu erstellen. Doch wie geht es mit Medien und Journalismus im Zeitalter von Big Data weiter?

Nicht Daten, sondern Wissen
Der derzeitige Hype um das Schlagwort „Big Data“ und dazu gehörende Diskussionen über „Open Data“ erinnert doch stark an die Planungseuphorie der frühen 1960er Jahre. Auch damals sorgte die technische Entwicklung für einen wahren Schub und anders als heute glaubten Politik und Verwaltung, mit neuen Rechenmaschinen bessere Planungen für Autobahnen, Städte oder Ausgaben realisieren zu können. Doch spätestens mit den Ölkrisen der 1970er war klar, dass das Wachstum an ein Ende gekommen und die schönen Datenmodelle nichts mehr wert waren.

Zwar sind die heutigen Datenquellen umfangreicher und viel genauer und auch gibt es schon tolle Beispiele für gelungenen Datenjournalismus, dennoch wird sich Datengläubigkeit jenseits von Geschäftsmodellen auch diesmal nicht durchsetzen. Die Gründe dafür liegen auf der Hand: Solange noch  nicht jedes Kind programmieren kann und ein Großteil der Deutschen Offline ist, werden Journalisten und Medienmarken gebraucht, die die Welt erklären können und aus Wissen und Erfahrung schöpfen. Dennoch wird es sich nicht vermeiden lassen, dass sich ein Großteil unserer Medienlandschaft transformiert und mit Angeboten sie SZ-Die Recherche neue Relevanz schafft.

Nicht Wissen, sondern Daten
Doch bevor die Maschinenstürmer in den deutschen Vorstandsetagen frohlocken, ganz so weit ist es dann doch nicht. Wollen journalistische Angebote auch in Zukunft überleben, müssen sie mehr als bisher auf Big Data setzen. Nur wer seine Zielgruppen in- und auswendig kennt, wird den richtigen Content zum richtigen Zeitpunkt / im passenden Kontext anbieten können und die User begeistern. Dabei dürfte dieser Schritt den meisten Verlagshäusern nicht allzu schwer fallen, denn schon seit jeher gehörten sie zu den größten Datenhändlern im Direktmarketing.

Derart betrachtet erscheint die Transformation eine einfache IT-Herausforderung zu sein, die vom Standort Deutschland locker bewältigt werden könnte, wenn nicht die Vorbehalte gegen Big Data und Co. nicht so groß wären. Anstatt in die USA zu schauen und die dort herrschende andere Auffassung von Privatsphäre und Datenschutz zu beklagen, könnten gerade Big Data-Lösungen „Made in Germany“ auf dem Weltmarkt und in der journalistischen Szene positiven Widerhall finden. Derzeit scheinen nur Unternehmen wie Springer erkannt zu haben, dass Investitionen in digitale Themen das journalistische Angebot mittelfristig am Leben erhalten. Mithilfe von Big Data können Contentproduzenten aber endlich wieder zu den Gewinnern zählen und deutlich sicher auf eigenen Beinen stehen.

Let me know your views on Twitter at @jancrode or on Facebook

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.