ArchivDeutsches Ärzteblatt25/2020Lernende Systeme: Bessere Medizin mit künstlicher Intelligenz

MEDIEN

Lernende Systeme: Bessere Medizin mit künstlicher Intelligenz

Krüger-Brand, Heike E.

Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...
LNSLNS
Für den qualitätsgesicherten Einsatz künstlicher Intelligenz bedarf es unter anderem der Zertifizierung von KI-Systemen sowie Zugriffskontrollen. Foto: metamorworks/iStock
Für den qualitätsgesicherten Einsatz künstlicher Intelligenz bedarf es unter anderem der Zertifizierung von KI-Systemen sowie Zugriffskontrollen. Foto: metamorworks/iStock

Mit den großen Chancen, aber auch den Risiken von Systemen mit künstlicher Intelligenz (KI) im Gesundheitswesen und möglichen Lösungsvorschlägen befasst sich der Bericht Sichere KI-Systeme in der Medizin, den zwei Arbeitsgruppen der Plattform Lernende Systeme jetzt vorgestellt haben. Das Whitepaper ist ein Diskussionsbeitrag zu der Frage, wie sichere KI-Systeme in der Medizin gestaltet und in die Praxis umgesetzt werden können.

KI-Systeme können die Gesundheitsversorgung verbessern, Heilungschancen für Patientinnen und Patienten erhöhen und Ärztinnen und Ärzte bei ihren Diagnosen und Therapieentscheidungen unterstützen. Grundvoraussetzung für die KI-Anwendungen sind Daten – auch Patientendaten, etwa aus der geplanten elektronischen Patientenakte.

Anzeige

Risiken beim Einsatz lernendender System gibt es viele, so unter anderem fehlerhafte oder verfälschte Trainingsdaten, Angriffe auf die KI-Software, Verletzung der Privatsphäre der Patienten oder die fehlende Integration in die klinische Praxis.

Mit Fragen unter anderem zum Schutz und der Manipulationssicherheit von Daten befassen sich die Autorinnen und Autoren der Arbeitsgruppen „Gesundheit, Medizintechnik, Pflege“ und „IT-Sicherheit und Privacy“ am Beispiel des Anwendungsszenarios „Mit KI gegen Krebs“. Zu den technischen und organisatorischen Bedingungen, die aus Sicht der Autoren für den qualitätsgesicherten Einsatz von KI-Assistenzsystemen in der Medizin erforderlich sind, zählen unter anderem die Zertifizierung von KI-Systemen sowie Zugriffskontrollmechanismen zum Schutz vor Angriffen, ebenso die Integrität der Datensätze und sichere Übertragungswege. Sie plädieren zudem dafür, die regulatorische Aufsicht der KI-Analyseverfahren einschließlich zugehöriger Trainings- und Testdatensätze an staatlich beauftragte neutrale Einrichtungen zu vergeben.

Gesellschaftsrelevante Fragen müssen laut Autoren „in einem breiten, ergebnisoffenen gesellschaftlichen Diskurs“ erörtert werden. Ein Beispiel: Mit KI können neue Nutzen-Risiko-Abwägungen notwendig werden. So können mit Big-Data-Analysen möglicherweise mehr Krankheiten früher entdeckt werden, dies könnte aber auch mit dem Risiko von mehr falsch-positiven Befunden einhergehen, meinen die Autoren. KBr

Leserkommentare

E-Mail
Passwort

Registrieren

Um Artikel, Nachrichten oder Blogs kommentieren zu können, müssen Sie registriert sein. Sind sie bereits für den Newsletter oder den Stellenmarkt registriert, können Sie sich hier direkt anmelden.

Deutsches Ärzteblatt plus
zum Thema

Fachgebiet

Zum Artikel

Anzeige

Alle Leserbriefe zum Thema

Stellenangebote