POLITIK

Big Data und Gesundheit: Viele Hoffnungen, viele Ängste

Dtsch Arztebl 2015; 112(23): A-1026 / B-861 / C-834

Krüger-Brand, Heike E.

Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...

Die wachsende Flut digitaler Daten wirft vor allem in der Medizin und im Umgang mit sensiblen Gesundheitsdaten ethische Fragen auf.

Foto: Fotolia WavebreakmediaMicro
Foto: Fotolia WavebreakmediaMicro

Big Data – das massenhafte Sammeln und Speichern von Daten, ihre Verknüpfung und Nutzung – verspricht große Fortschritte in der Medizin, birgt aber auch Risiken und wirft daher ethische und rechtliche Fragen auf. „Die Vermessung des Menschen – Big Data und Gesundheit“ lautete das Thema der diesjährigen Jahrestagung des Deutschen Ethikrates in Berlin, zu der sich mehr als 500 Teilnehmer einfanden. Zu den Rednern gehörte unter anderem auch der EU-Kommissar für Digitale Wirtschaft und Gesellschaft, Günther Oettinger.

„Die digitalisierte Gesundheitsversorgung kann eine der Türen sein, auf deren Klingelschild vielversprechend ,Paradies des guten Lebens‘ steht, hinter der sich aber wohl auch höllische Gefahren verstecken können“, betonte einleitend die Vorsitzende des Deutschen Ehtikrates, Prof. Dr. med. Christiane Woopen. Deswegen wolle der Ethikrat diesem Thema seine Jahrestagung widmen, „für die so wichtige gesellschaftliche Debatte über die Gestaltung unserer Zukunft in einem Zeitalter der digitalen Transformation“.

Für die medizinische Forschung eröffnet der Einsatz von Big-Data-Technologien als Mischung aus Statistik, maschinellem Lernen und Mustererkennung einen neuen Wissenszugang, etwa für die Erforschung seltener Krankheiten oder im Bereich von Public Health.

Als Beispiel für eine „Big Data Challenge“ aus der epidemiologischen Forschung verwies Prof. Dr.-Ing. Wolfgang Marquardt, Vorstandsvorsitzender des Forschungszentrums Jülich, auf die Nationale Kohorte. In ihr werden Daten zum Gesundheitszustand von 200 000 Menschen zwischen 10 und 69 Jahren über einen Zeitraum von bis zu 20 Jahren erfasst.

Verlässliche Prognosen sind abhängig von der Theorie

Die Daten umfassen unter anderem genetische Faktoren, Informationen zum Lebensstil, zum sozialen Umfeld und zu Umweltfaktoren. Ziel ist es, Prävention, Früherkennung und Therapie von Volkskrankheiten zu verbessern und Risikofaktoren zu identifizieren. Allerdings wirft dieses komplexe Forschungsvorhaben auch vielfältige Probleme auf: Marquardt zufolge ist teilweise unklar, wie die Datenmenge überhaupt ausgewertet werden soll, weil für die sinnvolle Interpretation der Daten das hierfür erforderliche Theoriewissen noch fehlt.

Verlässliche Prognosen hängen maßgeblich von der Qualität der Daten und Analysen sowie der zugrunde liegenden Theorie ab, wie er am Beispiel von „Google Flu Trends“ verdeutlichte: In dem Projekt soll aus sozialen Netzwerken und Web-Suchanfragen über Data-Mining-Verfahren die Anzahl der Grippefälle prognostiziert werden. Dabei kam es teilweise jedoch zu erheblichen Überschätzungen. Der Grund für die fehlende Vorhersagegenauigkeit sei die fehlende Theorie: „Wir haben so überhaupt keine Möglichkeit, die Vorhersagemöglichkeit bezüglich ihrer Fehlerquellen und -größen abzuschätzen“, erläuterte Marquardt. „Wir fischen da völlig im Trüben.“

Hinzu kommen Marquardt zufolge teilweise erhebliche Risiken wie die Frage der Datensicherheit etwa hinsichtlich der Vulnerabilität der kritischen Infrastrukturen, der Datenschutz und die gesellschaftliche Akzeptanz solcher Forschung.

Es geht nicht ohne menschliche Urteilskraft

„Big Data ist kein Hexen-Einmaleins“, befand Prof. Dr. phil. Klaus Mainzer von der Technischen Universität München. Dahinter stehen traditionsreiche Verfahren, etwa aus der Mathematik oder der Neuroinformatik. Hinzu kommen neuartige Algorithmen, mit denen sich die amorphen Datenmassen in Teilpakete zerlegen, parallel nach Datenkorrelationen und -mustern durchsuchen und die Ergebnisse zusammenführen lassen, um daraus Trends und Profile abzuleiten. Ist Big Data also tatsächlich eine neue Art der Wissenschaft? „Sie ist ein Paradigmenwechsel mit Blick auf die großen Kapazitäten, die Datenmengen und die neuartigen Algorithmen, aber wir dürfen nicht blind auf diese Daten und Algorithmen vertrauen“, erklärte Mainzer. „Algorithmen ohne Theorie und Gesetze sind blind. Korrelationen und Datenmuster ersetzen keine Erklärungen von Ursachen.“ Die Daten müssten nicht nur evaluiert, sondern auch bewertet werden. Daher gehe es auch bei Big Data nicht ohne die menschliche Urteilskraft.

Ähnlich argumentierte der Sprecher des Chaos Computer Clubs, Frank Rieger: Zwar habe man durch Big Data und dem Einzug korrelationsbasierter Wissenschaft „eine Menge von interessanten Möglichkeiten“. Die Frage sei aber: „Was ist denn unser gesellschaftliches Optimierungsziel?“ Big-Data-Verfahren und Vernetzung geben Werkzeuge an die Hand, die zum Guten oder zum Schlechten verwendet werden könnten. „Es ist an uns als Gesellschaft, darüber nachzudenken, welche Effekte wollen wir eigentlich?“

Sei der Wille des Einzelnen als Individuum möglicherweise wichtiger als das Wohl der Gemeinschaft, oder gehe es um das größtmögliche Glück der größtmöglichen Zahl? Vor dem Hintergrund des umfassenden Einflusses der digitalen Revolution auf alle Lebensbereiche müsse sich die Gesellschaft diesen grundlegenden Fragen stellen, denn „Algorithmen sind immer ein Ausdruck menschlichen Willens“.

Rieger plädierte dafür, ethischen Grundüberlegungen bei Regulierungsbemühungen den Vorrang zu geben. Derzeit renne die Politik ständig der Technologieentwicklung hinterher. Um dies zu vermeiden und zu langfristigen Lösungen zu gelangen, sei eine „technologieagnostische Regulierung“ sinnvoll.

Notwendig erscheint eine internationale Regulierung

Der stellvertretende Ethikrats-Vorsitzende Prof. Dr. theol. Peter Dabrock, Universität Erlangen-Nürnberg, äußerte die Befürchtung, dass die quantitative Verdichtung von Big-Data-getriebenen Prognosen zu einem schleichenden qualitativen Freiheitsverlust des Einzelnen führen kann, die als Steigerung der Selbstbestimmung und Selbstoptimierung verkauft wird, am Ende aber nur den Interessen großer Konzerne dient.

Ein Beispiel für das Risiko der Freiheitsgefährdung sind ihm zufolge die Boni-Angebote von Versicherungen für Nutzer von Wearables und Fitness-Apps, die sich auf die Übertragung ihrer sensiblen Gesundheitsdaten zunächst wegen der Mitnahme eines Vorteils einlassen. Dieser Anreiz könnte sich jedoch zur Pflicht und schließlich zum Zwang weiterentwickeln. Eine Ethik von Big Data zur Freiheitssicherung werde daher vor allem eine Sozialethik (und keine Tugendethik) sein müssen und erfordere vor dem Hintergrund international agierender Konzerne eine Regulierung möglichst auf globaler Ebene, meinte Dabrock.

Für mehr Pragmatismus warb Dr. med. Peter Langkafel, SAP: „Für mich ist Quantified Self nicht Life-Logging im Sinne eines Technologieangriffs auf die Würde der Menschheit“, betonte Langkafel. Er kritisierte den „digitalen Extremismus“, der das Ende und die Rettung der Menschheit zugleich im Diskurs beschwöre und es erschwere, die Extrempositionen zu Big Data zu einem Konsens zu führen.

Weitgehend einig waren sich die Referenten und Podiumsteilnehmer in der Einschätzung, dass es dringend einer gesellschaftlichen Debatte sowohl über den Nutzen und die Chancen als auch die Defizite und Risiken bedarf, die sich aus der Verfügbarkeit umfassender Datensätze gerade in medizinischem Kontext ergeben.

Dabei ist auch der Blick über den eigenen nationalen Tellerrand erforderlich. So stellte EU-Kommissar Günther Oettinger in seiner Key-note fest: „Wenn man die gesamte Wertschöpfungskette durchgeht, haben wir Europäer zu wenig digitale Souveränität, zu wenig digitale Autorität und zu viel digitalen Import.“ Die digitale Revolution sei nicht aufhaltbar, sie sei aber technisch und rechtlich gestaltbar. Oettinger plädierte für eine europäische Digital-Union und verwies darauf, dass die Datenschutz-Grundverordnung voraussichtlich noch in diesem Jahr verabschiedet werden wird.

Heike E. Krüger-Brand

Merkmale von Big Data

Im digitalen Universum verdoppelt sich das Datenwachstum durch exponentiell wachsende Rechen- und Speicherkapazitäten alle zwei Jahre. 2015 werden Experten zufolge circa 1,8 Zettabyte neue Daten generiert. Allerdings wurden 2013 nur etwa 20 Prozent der generierten Daten systematisch archiviert und nur ein Prozent davon analysiert.

Die „fünf V“ sind charakteristisch für Big Data:
Volume: Menge der erzeugten Daten
Velocity: Geschwindigkeit der Datenerfassung
Variety: Heterogenität der Daten (strukturiert, unstrukturiert)
Veracity: Qualität der Daten
Value: Relevanz der Daten, Wertschöpfung

Herausforderungen: Neben der Heterogenität von Datentypen und -qualität sind es vor allem die Frage von Standards bei der Datenerhebung, die Datenvalidierung, die Analysetechniken und die Bereitstellung von effizienten Informationsinfrastrukturen für die Nutzung, die derzeit den Einsatz von Big-Data-Technologien erschweren.

Besonders wichtig im Bereich Medizin und Gesundheit ist zudem der Datenschutz von personenbezogenen Daten, der unter anderem durch Pseudonymisierung und Anonymisierung gewährleistet werden soll.

Anzeige

    Leserkommentare

    E-Mail
    Passwort

    Registrieren

    Um Artikel, Nachrichten oder Blogs kommentieren zu können, müssen Sie registriert sein. Sind sie bereits für den Newsletter oder den Stellenmarkt registriert, können Sie sich hier direkt anmelden.

    Fachgebiet

    Zum Artikel

    Alle Leserbriefe zum Thema

    Login

    Loggen Sie sich auf Mein DÄ ein

    E-Mail

    Passwort

    Anzeige