Big Data konkret: Good Data wichtiger als Big Data?

13.12.2016
Elektronische Patientenakte

Im Rahmen der gemeinsam von der Smart-Data-Initiative des Bundesministeriums für Wirtschaft und Energie (BMWi), dem Bundesverband Gesundheits-IT – bvitg e.V. und der TMF – Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V. organisierten Konferenz „Big Data konkret“ diskutierten im Dezember 150 Experten aus unterschiedlichen Feldern Anwendungsszenarien von Big-­Data-Analysen in der Gesundheitsforschung und -versorgung.

Rahmenbedingungen müssen stimmen

Gleich in seiner Begrüßungsrede betonte Sebastian C. Semler (TMF) die Chancen von Big Data, aber auch die Rahmenbedingungen, die umfassende Analysen und zielführende Ergebnisse ermöglichen: „Röntgen, CT, MRT oder Blutuntersuchungen erzeugen eine große Menge an heterogenen Daten. Hinzu kommen ärztliche Berichte und Behandlungsverläufe in elektronischen Akten der Krankenhausinformationssysteme. Forschung mit diesen Daten bietet Potenzial für die Patientenversorgung. Bevor dies möglich wird, muss jedoch die Verfügbarkeit, Verknüpfbarkeit und Verwertbarkeit dieser Daten verbessert und sichergestellt werden, dass auch Big-Data-Analysen evidenzbasiert eingesetzt werden können.“

Im Fokus: Datenintegration und Datensicherheit

Die Problemfelder, die aktuell insbesondere vom Förderkonzept Medizininformatik des Bundesministeriums für Bildung und Forschung (BMBF) adressiert werden, sind dabei Datenintegration und Datenqualität. Auf der Konferenz stellte Dr. Matthias Kölbel (BMBF) die Initiative vor und betonte, dass Technologie hier nur das Mittel zum Zweck sei. Die eigentlichen Probleme, die es zu lösen gelte, lägen auf der organisatorischen und strukturellen Ebene. Dies bestätigte auch Nino Mangiapane von Bundesministerium für Gesundheit (BMG), der sich auf die Erfahrungen aus der Telemedizin bezog, wo die „Begeisterung“ über technische Lösungen dazu geführt hätte, dass viele Projekte es nicht in die Regelversorgung geschafft haben. Er betonte hierbei die Notwendigkeit von klar formulierten Zielen und der Einbindung aller beteiligten Partner in Forschung und Versorgung.

Qualität der Daten ist entscheidend

Neben den Projektvorstellungen der Unternehmen Cerner Health Services Deutschland, QuintilesIMS und Pfizer Deutschland GmbH berichtete anschließend Dr. Amke Caliebe, Universitätsklinikum Schleswig-Holstein, Campus Kiel, aus der Praxis. Dabei wies sie darauf hin, dass die Qualität der Daten wichtiger sei als ihre Anzahl: „Good Data ist wichtiger als Big Data.“ Es sei wichtig zu verstehen, dass Big Data nur eine Korrelation liefern könne, die medizinische Forschung aber auf die Kenntnis von Kausalitäten angewiesen sei. Big Data könne demnach klinische Studien ergänzen, aber niemals ersetzen.

Potenziale von Big Data im gesamten Gesundheitswesen

Welche Bedeutung, abgesehen von der Forschung und Entwicklung, grundsätzlich Big Data für das gesamte Gesundheitswesen besitzt, hob Ekkehard Mittelstaedt, Geschäftsführer des bvitg, schon im Vorfeld der Veranstaltung hervor: „Die Möglichkeiten, die wir durch eine intelligente Nutzung von Big Data im Gesundheitssektor haben, sind praktisch in jedem Bereich denkbar – egal ob in Reha-, Pflege- oder Sozialeinrichtungen. Zum jetzigen Zeitpunkt ist entscheidend, dass wir eine einheitliche Infrastruktur schaffen, auf der die zahlreichen Produkte angewendet werden können.“

Abschließende Diskussion

Bei der abschließenden Podiumsdiskussion fassten die Teilnehmer Dr.Matthias Kölbel (BMBF), Sebastian C. Semler (TMF), Dr. Frank Oemig (bvitg), Prof. Dr. Wilhelm Stork (FZI) und Dr. Alexander Tettenborn (BMWi) die wesentlichen Diskussionspunkte zusammen. Tettenborn betonte noch einmal, dass die Nutzung von Big Data unumgänglich für das BMWi sei, obwohl die Hälfte der Projekte keine praktische Umsetzung fände. Scheitern sei ein forschungsinhärenter Aspekt und die Markteinführung fördergeberseitig könne nicht erzwungen werden. Im vorwettbewerblichen Bereich sei die Förderung deshalb notwendig, da Unternehmen das wirtschaftliche Risiko sonst oft nicht tragen würden.

Dr. Frank Oemig wies dann darauf hin, dass nur bei ausreichender Interoperabilität der Forschungsansätze ein Anknüpfen neuer Projekte an bereits erreichte Erkenntnisse möglich sei. Im Kontext der fehlenden Standardisierung der Datenquellen in der Medizin betonte Sebastian C. Semler: „Wenn Forscher auf einen ‚Basis-Standard‘ zurückgreifen könnten, wäre dies hilfreich.“ Mit Verweis auf die Forschungsfreiheit müssten die Wissenschaftler sich aber selbst auf einen Standard einigen, so Dr. Matthias Kölbel. Neben der Möglichkeit, Forschungsergebnisse über Open Access zu publizieren, empfahl Prof. Wilhelm Stork die Teilnahme an Standardisierungsorganisationen. Damit rückten in der letzten Diskussion nochmals Datenintegration und Standards in den Fokus.

Fazit

Die Potenziale von Big-Data-Anwendungen sind nicht mehr von der Hand zu weisen. Nun gilt es, diese zügig und sinnvoll für die Versorgung zu nutzen. Dabei sollten sich die verschiedenen Maßnahmen der Bundesregierung ergänzen und durch gute Zusammenarbeit auszeichnen, auch um Insellösungen zu verhindern. Die Hindernisse für die Einführung müssen identifiziert und aufgelöst werden. Dazu bedarf es auch eines offenen Diskurses, u.a. zu Standards und Qualität von Daten, zwischen allen Beteiligten.