ArchivDeutsches Ärzteblatt35-36/2019Big Data in der klinischen Forschung: Vieles ist noch Wunschdenken

THEMEN DER ZEIT

Big Data in der klinischen Forschung: Vieles ist noch Wunschdenken

Dtsch Arztebl 2019; 116(35-36): A-1534 / B-1266 / C-1246

Caliebe, Amke; Burger, Hans-Ulrich; Knoerzer, Dietrich; Kieser, Meinhard

Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...
LNSLNS

Big-Data-Methoden in der Medizin haben Hochkonjunktur. Große, qualitativ hochwertige Datensätze, die Tausende von Patienten einschließen, sind derzeit und auf absehbare Zeit eher rar. Mit der Datenqualität steht und fällt jedoch die Aussagekraft von Analysen in der medizinischen Forschung.

Foto: monsitj/stock.adobe.com
Foto: monsitj/stock.adobe.com

Big Data ist charakterisiert durch das Zusammentreffen großer Datenmengen, hoher Datenverarbeitungsgeschwindigkeit und extremer Datenvielfalt (1). Im Zuge der Digitalisierung wird die Frage der wertschöpfenden und erkenntnisstiftenden Nutzung von Big Data in vielen Bereichen lebhaft diskutiert. Dabei gehen die Meinungen und Erwartungen, welche Rolle Big Data für Wissenschaft und Gesellschaft zukünftig spielen wird, weit auseinander. Im Gesundheitsbereich gibt es sowohl prominente Befürworter der These, dass Big Data die gesamte Medizin in Forschung und Krankenversorgung revolutionieren wird, aber auch der diametral entgegengesetzten Auffassung, dass es sich bei dieser Thematik lediglich um eine „Blase“ ohne Substanz und Relevanz handelt (2, 3).

Anzeige

In diesem Beitrag werden einige wesentliche Aspekte für die Anwendung von Big-Data-Methoden in der klinischen Forschung diskutiert. Dabei geht es insbesondere darum, welche Voraussetzungen für einen erfolgreichen Einsatz derartiger Konzepte in der klinischen Forschung erfüllt sein müssen, inwieweit diese bereits heute realisiert sind und welche Chancen sich zukünftig bieten werden.

Maschinelles Lernen und Vorhersagemodelle

Mit Maschinellem Lernen bezeichnet man hochdimensionale statistische Modelle, das heißt Modelle mit vielen Einflussgrößen, zum Beispiel Risikofaktoren oder genetischen Markern, auch Kovariaten genannt. Diese Modelle werden anhand eines großen Datensatzes ausgewählt und trainiert und können dann idealerweise mit hoher Treffsicherheit auch neue Muster erkennen. Maschinelles Lernen ist sehr erfolgreich in der Erkennung von Mustern („pattern recognition“), bei dem man einen Istzustand beschreibt und sämtliche hierzu notwendige Information vorliegt. Beispielsweise funktioniert Gesichtserkennung über solche Methoden, bei denen letztlich die Pixel des digitalen Bildes die Rolle der Kovariaten übernehmen.

Vorhersagemodelle beschreiben hingegen die statistische Vorhersage eines zukünftigen Zustandes oder Ereignisses. Funktionierten Methoden des Maschinellen Lernens hier ebenso gut wie bei Problemen der Mustererkennung, so wäre das für die klinische Forschung von fundamentaler Bedeutung. Solche Modelle würden es ermöglichen, den Behandlungserfolg für jeden Patienten unter Standardtherapie zu bestimmen (das sogenannte Counterfactual), selbst wenn dieser die Standardtherapie nicht erhalten hat, sondern die experimentelle Therapie. Randomisierte Studien wären dann häufig nicht mehr nötig, könnte man doch den Behandlungserfolg einer neuen Therapie dadurch beurteilen, dass man das Ergebnis unter der neuen Therapie mit diesem geschätzten Counterfactual unter dem gegenwärtigen Standard vergleicht. Für solche Vorhersagemodelle wären wiederum große Datenvolumina nötig, sowohl was die Anzahl Patienten als auch was den Umfang an Information, also Kovariaten pro Patient, betrifft.

Vorhersagemodelle versus Mustererkennung

Medizinische Vorhersagemodelle sind weitaus komplexer als die der Mustererkennung, und der Nachweis des Erfolgs ihrer Anwendung steht noch aus. Die Leistungsfähigkeit der Methoden hängt dabei von drei Komponenten ab: der Qualität der Informationen über die Kovariaten, der Genauigkeit der verwendeten Modelle und der Vollständigkeit der erhobenen Information, das heißt, ob alle relevanten Informationen zur Vorhersage eines zukünftigen Zustandes oder Ereignisses in den erhobenen Kovariaten enthalten sind.

Letzteres muss stark bezweifelt werden. Die mittels der Kovariaten verfügbaren Informationen erlauben es in der Medizin derzeit noch nicht einmal, den Istzustand eines Patienten vollständig zu charakterisieren; umso schwieriger wird es sein, einen Zustand in der Zukunft, zum Beispiel das Überleben in zwei Jahren, zu bestimmen. Solche Modelle müssten vielerlei Information zu den einzelnen Patienten enthalten, wie beispielsweise pharmakokinetische und pharmakodynamische Charakteristika, eine vollständige Genomsequenzierung, Lifestyle-Informationen, Information über künftige Veränderungen von Kovariaten, regionale Unterschiede bis hin zu Informationen über den behandelnden Arzt. Diese Daten müssten aktuell sein, weil deren Relevanz für eine Fragestellung aufgrund der fortschreitenden medizinischen Entwicklung im Zeitverlauf abnimmt. Ließen sich Modelle mit hoher Treffsicherheit entwickeln, würde dies letztlich auf einen völlig deterministischen Verlauf bei medizinischen Fragestellungen hindeuten. Es ist nicht davon auszugehen, dass derartige Modelle zukünftig häufig existieren werden. Dies gilt selbst unter der übertrieben optimistischen Annahme, dass die erhobenen Daten fehlerfrei sind und die mathematischen Modelle zu 100 Prozent funktionieren.

Man sollte deshalb aber den Einsatz Maschinellen Lernens nicht verwerfen. Es wird durchaus sinnvolle Anwendungsbeispiele von Maschinellem Lernen und Big Data geben, die zu Effizienzverbesserungen in der klinischen Forschung führen werden. Beispiele sind die Unterstützung der Evaluation von CTs, die bessere Charakterisierung von Risikopatienten, die Entwicklung digitaler Endpunkte oder einfacherer Diagnostik, mit der man durch Einsatz dieser Methoden CTs oder MRTs zur Überprüfung von Ein- und Ausschlusskriterien in klinischen Studien vermeiden kann. Derartige Anwendungsbeispiele werden die klinische Forschung nicht revolutionieren, aber zu teilweise deutlichen Effizienzsteigerungen führen und vielerlei Erleichterungen für Patienten bewirken.

Big-Data-Projekte in der medizinischen Forschung verwenden häufig große und unstrukturierte Datenmengen und sind unspezifisch in Bezug auf die Fragestellung. So kann etwa nach Risikofaktoren für koronare Herzkrankheit (KHK) gesucht werden. Dabei werden aber nicht nur wenige, vorher festgelegte Risikofaktoren und Ausprägungen von KHK betrachtet, sondern es werden eine Vielzahl (häufig Zigtausende) von Lifestyle-, klinischen und genetischen Faktoren auf Assoziation mit vielfältigen Symptomen und Biomarkern getestet. Solche Studien sind zunächst explorativ angelegt. Bevor eine Translation in die klinische Praxis möglich ist, müssen deshalb die Ergebnisse in einer weiteren Studie, die auf unabhängigen Daten basiert und die mit hohen Standards bezüglich Methodik und Qualität durchgeführt wird, validiert werden. Wünschenswert ist eine prospektive und, wenn möglich, randomisierte Folgestudie (4).

Ohne Validierungsstudien sollten Ergebnisse von Big-Data-Studien nur sehr vorsichtig interpretiert werden. Leider wird häufig überoptimistisch kommuniziert. Ein Beispiel hierfür sind polygene Risikoscores. In einer Studie an Daten aus der UK-Biobank wurden polygene Risikoscores für koronare Herzkrankheit, Vorhofflimmern, Typ-II-Diabetes, entzündliche Darm­er­krank­ungen und Brustkrebs in einer Fall-Kontroll-Studie entwickelt (5).

Ein erklärtes Ziel hierbei war es, Hochrisikopersonen zu identifizieren, um eine Verbesserung in Prävention, früher Diagnose und Therapie zu erreichen. Eine Validierung in einer prospektiven Studie, dass diese Risikoscores tatsächlich von klinischer Relevanz sind, steht noch aus. Nichtsdestotrotz werden schon konkrete Maßnahmen vorgeschlagen, die nicht ohne Nebenwirkungen sind (5). Ob solche Interventionen bei Personen mit hohem Score zu dem gewünschten Ergebnis führen, ist bisher völlig unklar und verlangt eine randomisierte Studie mit einem Vergleich zu dem Standard-of-Care, auch um das Risiko-Nutzen-Verhältnis abzuschätzen.

Übertragbarkeit auf die relevante Patientenpopulation

Im Gesundheitswesen müssen Resultate von Big-Data-Studien immer auf die intendierte Patientenpopulation übertragen werden. Basiert eine solche Studie dabei auf Sekundärdaten, das heißt, wurde sie nicht in der relevanten Population erhoben, so ist eine Extrapolation der Ergebnisse auf die Zielpopulation notwendig, die problematisch sein kann. Die Aussagekraft für eine bestimmte klinische Population muss deshalb in einer Folgestudie überprüft werden.

So wurden beispielsweise die polygenen Risikoscores aus der oben genannten Studie (5) auf der Basis von Daten aus der UK-Biobank entwickelt (Durchschnittsalter 57 Jahre). Es wird jedoch ins Auge gefasst, die Scores bereits bei sehr jungen Personen (eventuell Neugeborenen) zu bestimmen. Wenn die Scores zudem bei Personen eingesetzt werden sollen, die ein erhöhtes familiäres beziehungsweise Lifestyle-Risiko haben, wäre dies ebenfalls eine deutlich andere Population als die UK-Biobank.

Bei polygenen Risikoscores ist zu beachten, dass diese zurzeit fast ausschließlich für europäisch-stämmige Personen entwickelt werden. Dies kann zu einer Zunahme von Ungleichgewichten in den weltweiten Gesundheitssystemen führen (6). Ein weiteres Beispiel sind Verfahren, welche zur Klassifizierung von Hautläsionen entwickelt wurden und auf Deep-Learning beruhen. Diese Algorithmen werden häufig praktischerweise mit großen, öffentlich zugänglichen Datensätzen trainiert, die fast ausschließlich hellhäutige Personen aus den USA, Europa und Australien zeigen. Dies führt zu starken Einschränkungen bei der Anwendung auf unterschiedliche Populationen (7).

Kausalzusammenhang versus Korrelation

In der Medizin steht die Identifizierung eines kausalen Zusammenhangs für viele Fragestellungen im Vordergrund. Beispielsweise möchte man Therapien entwickeln, die aufgrund ihres Wirkmechanismus für eine Verbesserung eines Krankheitsbildes sorgen. In klinischen Studien kann durch Hinzunahme einer Placebokontrolle untersucht werden, ob eine Medikation kausal wirkt oder ob es sich lediglich um einen Placeboeffekt handelt. Erst bei Erfolg einer solchen Studie wird das Prüfpräparat zugelassen. Auch in der Epidemiologie ist es das Ziel, kausale Risikofaktoren zu identifizieren (wie zum Beispiel Rauchen für Lungenkrebs), um mit gesundheitspolitischen Maßnahmen reagieren zu können (8).

Der Goldstandard für den Nachweis von Kausalität in der Medizin sind randomisierte Studien. Im Kontext von Big Data ist es wichtig, sich bewusst zu werden, dass Big-Data-Studien nur Korrelationen aufzeigen können (9). Für Unternehmen außerhalb des Gesundheitswesens können Korrelationen die relevanten Informationen sein: Für eine Online-Firma ist es profitabel zu erfahren, dass Kunden, die Buch A gekauft haben, mit hoher Wahrscheinlichkeit auch Buch B kaufen werden, selbst wenn der Kauf von Buch A nicht den Kauf von Buch B bewirkt hat. Das Wissen um eine Korrelation reicht deshalb aus, und es ist nicht nötig zu wissen, ob eine kausale Beziehung besteht (wie etwa Buch B wird in Buch A empfohlen) oder nicht (wie etwa beide Bücher behandeln ein ähnliches Thema).

Im medizinischen Zusammenhang liegt eine völlig veränderte Situation vor. Hier ist es in der Regel hochrelevant, ob eine potenzielle Behandlungsmethode die betrachtete Krankheit kausal verbesserte oder ob die beobachtete Verbesserung aus anderen Gründen auftrat, wie zum Beispiel durch Spontanheilung, Placebo-Effekt oder Veränderung von Lifestyle-Faktoren. Hierin liegt ein wesentlicher Unterschied zwischen Big-Data-Studien im medizinischen und nicht-medizinischen Kontext. In einigen Bereichen kann allerdings auch im Gesundheitsbereich auf Kausalität verzichtet werden, beispielsweise bei der Verwendung von Maschinellem Lernen bei Mustererkennung in der Diagnostik. Selbst wenn Korrelationen an und für sich keine Kausalität begründen können, geben sie doch mitunter Hinweise auf Zusammenhänge (10). Diese Zusammenhänge müssten dann allerdings in weitergehenden, gut geplanten (möglichst randomisierten) Studien oder Experimenten überprüft werden.

Verfügbare versus nutzbare Daten

Speziell in frühen Phasen der Medikamentenentwicklung gibt es nicht für alle relevanten Fragestellungen große Datensätze. Hier ist Big Data, wenn überhaupt, nur für die Vergleichstherapie oder den natürlichen Verlauf der Erkrankung verfügbar. Big Data kann sich in diesen frühen Phasen, wie auch allgemein, auf die Sammlung und Auswertung von strukturierten und unstrukturierten Daten beziehen. Strukturiert erhobene Daten sind naturgemäß besser geeignet, spezifische Fragestellungen zu beantworten. Aber selbst bei strukturiert erhobenen Daten, etwa im Rahmen eines Registers, ist ein Großteil der Informationen, die zur Klärung der vielfach speziellen Fragestellungen in der klinischen Forschung notwendig wären, nicht verfügbar. Dies gilt umso mehr bei unstrukturiert erhobenen Daten.

Verwendete Datenquellen, Patientenzahlen und verfügbare Daten
Verwendete Datenquellen, Patientenzahlen und verfügbare Daten
Tabelle
Verwendete Datenquellen, Patientenzahlen und verfügbare Daten

Die beiden Beispiele (siehe Tabelle) beziehen sich auf außerhalb von klinischen Studien strukturiert erhobene Daten, die mit den innerhalb von Studien erhobenen Daten kombiniert werden sollen, um insgesamt die Evidenzgrundlage für die Nutzenbewertung einer Therapie zu bilden.

  • Einschränkungen durch Endpunkte und Matching-Variablen: Um externe Daten und Studiendaten zu kombinieren, müssen in beiden Quellen die gleichen Endpunkte abzuleiten sein. Dies war in beiden Beispielen lediglich für einen leicht operationalisierbaren Endpunkt möglich, nämlich für das overall survival (OS, Gesamtüberleben). In Indikationen mit komplexeren Endpunkten, in denen OS nicht als Outcome verwendet wird, beispielsweise weil es für die betrachteten Therapien unterschiedlich definiert war, kann die Kombination von externen und internen Daten bereits am fehlenden Vorhandensein vergleichbarer klinischer Endpunkte scheitern. Aus diesem Grund war es in den beiden Beispielsfällen nicht möglich, Verträglichkeitsdaten zu vergleichen.

Gleiches gilt für die Matching-Variablen, die eine möglichst ähnliche Struktur der Populationen in den externen und den Studiendaten schaffen sollen und die indikationsspezifisch festgelegt werden. Deren Definition muss in beiden Datenquellen gleich operationalisiert sein, um einen adäquaten Vergleich durchführen zu können. Da diese Punkte bereits bei strukturiert erhobenen Daten vielfach schwierig zu gewährleisten sind, ist dieser (nachteilige) Effekt für unstrukturiert erhobene Daten noch deutlich größer.

  • Einschränkungen durch Indikation, Vorbehandlung und Biomarker: Besonders wichtig wird diese Fragestellung bei der Verwendung von neuartigen Biomarkern, die zum Beispiel einen neuen Therapieansatz induziert haben. Die Zahlenbeispiele stammen aus Indikationen, die durch festgelegte Vorbehandlungen und das Vorhandensein definierter Biomarker bestimmt sind. Je spezifischer das Vorbehandlungsschema und je neuer der Biomarker, desto stärker reduzieren sich die nutzbaren Daten in den externen Datenquellen.

In beiden Fällen liegt der Anteil der verwendbaren Daten bei unter 0.003 Prozent. Sowohl die Indikation selbst, als auch Vortherapien und Biomarker sind jeweils Kriterien, die den Umfang der nutzbaren Daten drastisch reduzieren. Bei einer derart starken Reduktion des externen Datensatzes im Hinblick auf die auswertbaren Endpunkte und die Zahl der Matching-Variablen, vor allem aber die Anzahl der Beobachtungen (Patienten), stellt sich die Frage nach der Repräsentativität der Daten; dies gilt sowohl für die Datenbank selbst als auch im Hinblick auf die Realität. Damit einher gehen notwendigerweise Zweifel an der Interpretationsfähigkeit der Analysen, die auf diesen Daten basieren. Darüber hinaus wird anhand der Beispiele deutlich, dass die schiere Anzahl von Daten in der Datenquelle keine Aussagekraft über die für eine spezifische Frage verfügbare Datenmenge besitzt und dass Big Data unter Umständen schnell in spärlicher Information münden kann.

Medizin als datenbasierte Wissenschaft

Wenn man die gegenwärtige Diskussion um Big Data betrachtet, so stellt man fest, dass Big Data einen Hype darstellt oder zumindest viele Elemente eines Hypes aufweist. Viele Analysten sehen heute in Big Data ein Tool, das die klinische Forschung substanziell verändern oder revolutionieren wird. Tatsächlich wäre dies im Bereich des Möglichen, wenn man mit Vorhersagemodellen den Krankheitsverlauf eines Patienten mit hoher Treffsicherheit vorhersagen könnte. Es gibt allerdings verschiedenste, teilweise auch prinzipielle Einwände, warum diese Vorstellung heute und auch in Zukunft eher in den Bereich von Wunschdenken einzuordnen ist.

Jenseits dessen, was Big Data fälschlicherweise gegenwärtig verspricht, wird deren zunehmende Verfügbarkeit allerdings auch zu sinnvollen Anwendungen in der klinischen Forschung führen, mit teilweise erheblichen Effizienzsteigerungen. Außerhalb der Medikamentenentwicklung wird Big Data einen profunderen, zum Teil richtungsweisenden Einfluss haben, zum Beispiel in der Diagnostik oder bei der Vermarktung von Pharmazeutika.

Quasi als Nebenprodukt wird Big Data aber auch zu einer stärkeren und deutlich verbreiterten Überzeugung führen, dass Medizin und klinische Forschung eine datenbasierte Wissenschaft ist und auch schon immer war. Der Wert medizinischer Daten wird entsprechend steigen und damit auch die Investitionen in integrierbare, große Datensätze. Solche Datensätze werden auch neue Datentypen mit einschließen (wie Omics, Images oder digitale Endpunkte). Dies wird der Forschung und letztlich auch dem Patienten zugute kommen.

Man sollte sich allerdings nicht täuschen lassen. Wirklich große Datensätze, die Tausende von Patienten einschließen und gleichzeitig gute Datenqualität aufweisen, wird es auch in Zukunft eher selten geben. Weil aber mit der Datenqualität die Aussagekraft der Analysen steht und fällt, ist zu erwarten, dass – anders als dies teilweise propagiert wird – auch beim Einsatz von Big Data in der klinischen Forschung die Bäume nicht in den Himmel wachsen werden.

  • Zitierweise dieses Beitrags:
    Dtsch Arztebl 2019; 116(35): A 1534–9

Anschrift für die Verfasser
Prof. Dr. sc. hum. Meinhard Kieser
Institut für Medizinische Biometrie und Informatik, Ruprecht-Karls Universität Heidelberg, Marsilius-Arkaden, Turm West, Im Neuenheimer Feld 130.3, 69120 Heidelberg
meinhard.kieser@imbi.uni-heidelberg.de

Literatur im Internet:
www.aerzteblatt.de/lit3519
oder über QR-Code.

1.
Gartner, Inc.: IT Glossary – Big Data. www.gartner.com/it-glossary/big-data.
2.
Antes G: Big Data und Personalisierte Medizin: Goldene Zukunft oder leere Versprechungen? Dtsch Arztebl 2016; 113 (15): A-712 VOLLTEXT
3.
Fernandes L, O’Connor M, Weaver V: Big data, bigger outcomes. J AHIMA 2012; 38–42.
4.
Kanda E: Use of big data in medicine. RenReplacTher 2015; 1: 4 CrossRef
5.
Khera AV, Chaffin M, Aragam KG, et al.: Genome-wide polygenic scores for common diseases identify individuals with risk equivalent to monogenic mutations. Nat Genet 2018; 50 (9): 1219–24 CrossRef MEDLINE PubMed Central
6.
Martin AR, Kanai M, Kamatani Y, Okada Y, Neale BM, Daly MJ: Clinical use of current polygenic risk scores may exacerbate health disparities. Nat Genet 2019; 51 (4): 584–91 CrossRef MEDLINE
7.
Brinker TJ, Hekler A, Utikal JS, Grabe N, Schadendorf D, Klode J, Berking C, Steeb T, Enk AH, von Kalle C: Skin cancer classification using convolutional neural networks: systematic review. J Med Internet Res 2018; 20 (10): e11936 CrossRef MEDLINE PubMed Central
8.
Pearl J: An introduction to causal inference. Int J Biostat 2010; 6 (2): Article 7 CrossRef MEDLINE PubMed Central
9.
Caliebe A, Leverkus F, Antes G, Krawczak M: Does big data require a methodological change in medical research? BMC Med Res Methodol 2019; 19: 125 CrossRef MEDLINE PubMed Central
10.
Mayer-Schönberger V, Cukier K: Big Data: A Revolution that Will Transform how We Live, Work, and Think. Houghton Mifflin Harcourt, 2013.
11.
Baro E, Degoul S, Beuscart R, Chazard E: Toward a literature-driven definition of big data in healthcare. BioMed Research International 2015; Article ID 639021 CrossRef MEDLINE PubMed Central
Institut für Medizinische Informatik und Statistik, Christian-Albrechts-Universität zu Kiel,
Universitätsklinikum Schleswig-Holstein:
Dr. rer. nat. Caliebe
Clinical Biostatistics, Hoffmann-La Roche AG, Basel: Burger
Biostatistics & Epidemiology, Roche Pharma AG, Grenzach:
Knoerzer
Institut für Medizinische Biometrie und Informatik, Universitätsklinikum Heidelberg:
Prof. Dr. sc. hum.
Kieser
Verwendete Datenquellen, Patientenzahlen und verfügbare Daten
Verwendete Datenquellen, Patientenzahlen und verfügbare Daten
Tabelle
Verwendete Datenquellen, Patientenzahlen und verfügbare Daten
1. Gartner, Inc.: IT Glossary – Big Data. www.gartner.com/it-glossary/big-data.
2.Antes G: Big Data und Personalisierte Medizin: Goldene Zukunft oder leere Versprechungen? Dtsch Arztebl 2016; 113 (15): A-712 VOLLTEXT
3.Fernandes L, O’Connor M, Weaver V: Big data, bigger outcomes. J AHIMA 2012; 38–42.
4.Kanda E: Use of big data in medicine. RenReplacTher 2015; 1: 4 CrossRef
5.Khera AV, Chaffin M, Aragam KG, et al.: Genome-wide polygenic scores for common diseases identify individuals with risk equivalent to monogenic mutations. Nat Genet 2018; 50 (9): 1219–24 CrossRef MEDLINE PubMed Central
6.Martin AR, Kanai M, Kamatani Y, Okada Y, Neale BM, Daly MJ: Clinical use of current polygenic risk scores may exacerbate health disparities. Nat Genet 2019; 51 (4): 584–91 CrossRef MEDLINE
7.Brinker TJ, Hekler A, Utikal JS, Grabe N, Schadendorf D, Klode J, Berking C, Steeb T, Enk AH, von Kalle C: Skin cancer classification using convolutional neural networks: systematic review. J Med Internet Res 2018; 20 (10): e11936 CrossRef MEDLINE PubMed Central
8.Pearl J: An introduction to causal inference. Int J Biostat 2010; 6 (2): Article 7 CrossRef MEDLINE PubMed Central
9.Caliebe A, Leverkus F, Antes G, Krawczak M: Does big data require a methodological change in medical research? BMC Med Res Methodol 2019; 19: 125 CrossRef MEDLINE PubMed Central
10.Mayer-Schönberger V, Cukier K: Big Data: A Revolution that Will Transform how We Live, Work, and Think. Houghton Mifflin Harcourt, 2013.
11.Baro E, Degoul S, Beuscart R, Chazard E: Toward a literature-driven definition of big data in healthcare. BioMed Research International 2015; Article ID 639021 CrossRef MEDLINE PubMed Central

Leserkommentare

E-Mail
Passwort

Registrieren

Um Artikel, Nachrichten oder Blogs kommentieren zu können, müssen Sie registriert sein. Sind sie bereits für den Newsletter oder den Stellenmarkt registriert, können Sie sich hier direkt anmelden.