Keep it simple.

Die Neue Zürcher Zeitung hat für ihre Jahreschronik 2014 ihre Datenbank mit einem Data-Mining-Tool analysiert und die Artikel thematisch sortiert auf einen Zeitstrahl geplottet.

von
Philipp
Grätzel von Grätz

Das ist nicht nur hübsch anzusehen, es bringt auch Mehrwert: Es macht sehr anschaulich, wann und wie die Aufmerksamkeitsmaschinerie der Mediendemokratie anspringt. Die grafische Aufbereitung ist gleichzeitig umfangreicher und selbstkritischer als die üblichen redaktionellen Doppelseiten zum Jahresausklang.

Meines Wissens hat das bis dato so noch keine andere Zeitung gemacht. Dabei ist die Analyse simpel. Es braucht nur die Fähigkeit, vorhandenes Datenmaterial mit anderen Augen zu sehen. Richtig spannend wird Data Mining immer dann, wenn Fragen gestellt werden, die sich bisher niemand ernsthaft traute zu stellen, weil ihre Beantwortung bei konventionell-manueller Auswertung der Datenbestände viel zu zeitraubend gewesen wäre. Das können durchaus sehr einfache Fragen sein.

Vor der Komplexitätsfalle kann auch beim Data Mining im Gesundheitswesen nur gewarnt werden. Wer Datenschätze im Krankenhaus heben will, träumt oft von Daten-Crawlern, die die medizinischen „Basisdaten“ eines Patienten nutzen, um mithilfe von Informationen über die Krankheitsverläufe (sehr vieler) anderer Patienten die optimale Behandlung im konkreten Fall quasi statistisch herauszufiltern.

Dieser Ansatz ist nicht nur deswegen megaloman, weil er gigantische Patientendatenbanken erfordert, sondern auch deswegen, weil hinter solchen Auswertungen immer medizinische Hypothesen stehen, die oft unbewiesen sind. Die Verquickung von „großer“ Software mit „großen“ Fragen hat schon damals nur begrenzt funktioniert, als Big Data noch Grid Computing hieß und mit vielen EU-Millionen gefördert wurde.

Was nicht heißt, dass medizinische Einrichtungen mit ihren Datenschätzen keine sinnvollen Sachen machen können. Sie sollten nur unten anfangen, nicht oben, und sie müssen ihre (medizinischen) Big-Data-Applikationen so evaluieren, wie sie konventionelle Behandlungsalgorithmen auch evaluieren würden. Heißt: Erst den gut validierten Sepsis-Score digitalisieren, dann an die schwammige Komplettanalytik von tausenden Gigabytes an Monitoringdaten denken. Erst Leitlinien-Checks einführen, dann personalisierte Empfehlungen erwägen. Und erst vorhandene Datenquellen erschließen, dann in die Cloud gehen. Andersrum macht mehr Spaß, schon klar. Aber so rum ist Big Data erfolgsträchtiger.

Your search returned no results.