NewsVermischtesBessere Medizin mit Künstli­cher Intelligenz
Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...

Vermischtes

Bessere Medizin mit Künstli­cher Intelligenz

Mittwoch, 8. April 2020

/maxsim, stock.adobe.com

München – Mit den großen Chancen, aber auch den Risiken von Systemen mit Künstli­cher Intelligenz (KI) im Gesundheitswesen und möglichen Lösungsvorschlägen befasst sich der Bericht Sichere KI-Systeme in der Medizin, den zwei Arbeitsgruppen der Platt­form Lernende Systeme heute vorgestellt haben. Das Whitepaper ist ein Diskussions­bei­trag zu der Frage, wie sichere KI-Systeme in der Medizin gestaltet und in die Praxis um­gesetzt werden können.

KI-Systeme können die Gesundheitsversorgung verbessern, Heilungschancen für Patien­ten erhöhen und Ärzte bei ihren Diagnosen und Therapieentscheidungen unterstützen. Grundvoraussetzung für die KI-Anwendungen sind Daten – auch Patientendaten, etwa aus der geplanten elektronischen Patientenakte (ePA).

Anzeige

Risiken beim Einsatz lernendender System gibt es viele, so unter anderem fehlerhafte oder verfälschte Trainingsdaten, Angriffe auf die KI-Software, Verletzung der Privatsphäre der Patientinnen und Patienten oder die fehlende Integration in die klinische Praxis.

Wie lassen sich KI-Systeme in der klinischen Praxis schützen? Wie kann die Manipulation von KI-Trainingsdaten verhindert werden, wenn etwa das Medikament eines Pharmaher­stellers von einem KI-Assistenz-System bevorzugt empfohlen wird? Wie können Patien­ten­­daten sicher bereitgestellt werden? Mit diesen Fragen befassen sich die Autoren der Arbeitsgruppen „Gesundheit, Medizintechnik, Pflege“ und „IT-Sicherheit und Privacy“ am Beispiel des Anwendungsszenarios „Mit KI gegen Krebs“.

Regulatorische Gestaltung

Zu den technischen und organisatorischen Bedingungen, die aus Sicht der Autoren für den qualitätsgesicherten Einsatz von KI-Assistenzsystemen in der Medizin erforderlich sind, zählen unter anderem die Zertifizierung von KI-Systemen sowie Zugriffskontroll­me­chanismen zum Schutz vor Angriffen, ebenso die Integrität der Datensätze und sichere Übertragungswege.

Die Autoren plädieren zudem dafür, die regulatorische Aufsicht der KI-Analyseverfahren einschließlich zugehöriger Trainings- und Testdatensätze an staatlich beauftragte neu­trale Einrichtungen zu vergeben.

„Damit Patientinnen und Patienten ihre Datensätze nach der Behandlung der (universi­tä­ren) Forschung zur Verfügung stellen und KI-Methoden weiterentwickelt werden können, bedarf es einer forschungskompatiblen ePA. Das bedeutet, dass die relevanten Daten in einer hohen Qualität, vollständig und in einer weiterverwendbaren Form vorliegen soll­ten“, schreiben die Autoren.

Die ePA sollte ihnen zufolge auch erweitert werden um Informationen wie Anamnese, Allergien, Diätprogramme, Krankengymnastik und Ähnliches. Dies bedeutet, deutlich mehr Akteure beim potenziellen Zugriff auf die Daten einzubeziehen.

Gesellschaftsrelevante Fragen

Während sich zentrale Sicherheitsprobleme von KI-Systemen oft technisch lösen lassen, gibt es viele gesellschaftsrelevante Fragen, die „in einem breiten, ergebnisoffenen gesell­schaftlichen Diskurs“ erörtert werden müssen, fordern die Autoren. Ein Beispiel: Mit KI können neue Nutzen-Risiko-Abwägungen notwendig werden. So können mit Big-Data-Analysen möglicherweise mehr Krankheiten früher entdeckt werden, dies könnte aber auch mit dem Risiko von mehr falsch-positiven Befunden einhergehen, meinen die Au­toren.

Auch die im Kontext mit der Forschungsdatenspende diskutierten Fragen sind den Auto­ren zufolge gesellschaftlich zu erörtern: Welche Daten sollen Patienten beispielsweise weitergeben können, und wie eng sollte die Zweckgebundenheit einer freiwilligen und geschützten Datenfreigabe dabei ausgelegt werden?

Klärungsbedürftig sind demnach auch Fragen zu Verantwortung und Haftung beim Ein­satz von KI-Systemen sowie zur Transparenz der Ergebnisse. Diskutiert werden müssten aus Sicht der Autoren etwa Fragen wie: „Wie viel Auskunftsrecht über die Berechnung eines KI-Systems müssen Ärzte und Patienten haben? Welche Regeln sollte der Gesetz­geber für die Nachvollziehbarkeit und Erklärbarkeit von KI-basierten Medizinprodukten schaffen?“ So wünschenswert eine maximale Nachvollziehbarkeit erscheine, könne diese auch zu einer Informationsüberflutung führen, mit der weder Patienten noch medizinischem Personal gedient wäre, heißt es.

Hintergrund: Die Plattform Lernende Systeme soll Experten aus Wissenschaft, Wirtschaft, Politik und zivilgesellschaftlichen Organisationen aus den Bereichen Lernende Systeme und KI zusammenbringen. In thematischen Arbeitsgruppen erörtern sie die Chancen, He­rausforderungen und Rahmenbedingungen für die Entwicklung und den verantwortungs­vollen Einsatz Lernender Systeme, um daraus Szenarien, Empfehlungen und Gestaltungs­optionen abzuleiten. © KBr/aerzteblatt.de

Leserkommentare

E-Mail
Passwort

Registrieren

Um Artikel, Nachrichten oder Blogs kommentieren zu können, müssen Sie registriert sein. Sind sie bereits für den Newsletter oder den Stellenmarkt registriert, können Sie sich hier direkt anmelden.

LNS

Nachrichten zum Thema

20. Mai 2020
New York − Während einer Epidemie mit einem hoch ansteckenden Erreger wie SARS-CoV-2 kann eine rasche Diagnose eine nosokomiale Ausbreitung verhindern. Eine Klinik im Epizentrum der Epidemie
COVID-19: Künstliche Intelligenz ermöglicht schnelle Diagnose vor PCR-Test
28. April 2020
München – Experten der Plattform Lernende Systeme (PLS) fordern unabhängige Prüfstellen, die Künstliche-Intelligenz(KI)-Systeme für die Medizin zertifizieren, und Kontrollmechanismen, die nur
Wissenschaftler wollen unabhängige Prüfstellen zum Einsatz von künstlicher Intelligenz
28. April 2020
Berlin – Wissenschaftler vom Pathologischen Institut der Charité – Universitätsmedizin Berlin haben gemeinsam mit Forschern der Technischen Universität Berlin ein Bildanalysesystem entwickelt, das mit
Digitales Bildanalysesystem unterstützt Pathologen bei Beurteilung mikroskopischer Präparate
14. April 2020
London – Viele Studien, die behaupten, dass künstliche Intelligenz (KI) medizinische Bilder ebenso gut oder besser beurteilen kann als menschliche Experten, sind von schlechter Qualität und „wohl auch
Fähigkeit von künstlicher Intelligenz bei der Bildbeurteilung möglicherweise überschätzt
7. April 2020
Odense/Quingdao/München – Roboter können bei der Bekämpfung des Coronavirus SARS-CoV-2 hilfreich sein, so etwa bei der Desinfektion in Krankenhäusern. Ein Beispiel dafür ist der Desinfektionsroboter
Mit Robotertechnologie gegen Viren
2. April 2020
Tübingen – Wissenschaftler im Bereich der künstlichen Intelligenz (KI) wollen sich weltweit besser mit den Gesundheitswissenschaften vernetzen, um SARS-CoV-2 zu bekämpfen. „Wesentlich für die
Künstliche Intelligenz soll beim Kampf gegen SARS-CoV-2 helfen
18. März 2020
Göttingen/Berlin – Künstliche Intelligenz (KI) soll Pathologen künftig dabei unterstützen, Tumorzellen rascher und detaillierter zu typisieren. Ein entsprechendes Projekt „Cancer Scout“ haben
LNS

Fachgebiet

Anzeige

Weitere...

Aktuelle Kommentare

Archiv

NEWSLETTER