Zwischen Fortschritt und Vorbehalt: Wie Künstliche Intelligenz die Arzt-Patienten-Beziehung verändert

Würzburg/Berlin – Künstliche Intelligenz (KI) hält in immer mehr Bereiche der Medizin Einzug und verspricht, die Gesundheitsversorgung zu verbessern, prognostiziert zumindest eine wachsende Zahl von Studien. Patienten haben aber eher Zweifel, wenn es um die neuen technischen Möglichkeiten geht, stellt nun eine im Fachblatt JAMA Network Open (2025, DOI: 10.1001/jamanetworkopen.2025.21643) veröffentlichte Arbeit fest.
Mehr noch: Die Nutzung von KI führe dazu, dass Menschen die Ärzte als weniger kompetent und vertrauenswürdig einschätzen.
Für die Studie rekrutierten Moritz Reis und Wilfried Kunde von der Julius-Maximilians-Universität in Würzburg sowie Florian Reis vom Institut für Medizinische Informatik der Charité Berlin mehr als 1.200 Freiwillige. Diese bekamen Werbeanzeigen für Arztpraxen zu sehen und sollten die dargestellten Ärztinnen und Ärzte mit Blick auf verschiedene Eigenschaften bewerten.
Die für das Experiment kreierten Anzeigen unterschieden sich lediglich in einem Punkt: So wurde bei manchen eine einzelne Aussage ergänzt, der zufolge der dargestellte Arzt oder die dargestellte Ärztin KI für Verwaltung, Diagnose oder therapeutische Zwecke einsetzte.
Eben jene Mediziner wurden in dem Experiment deutlich negativer eingeschätzt. Konkret bewerten die Teilnehmer der Studie diese als weniger kompetent, weniger vertrauenswürdig und weniger empathisch – und das selbst dann, wenn in der fiktiven Anzeige stand, dass KI in der Praxis nur für administrative Zwecke genutzt würde.
Zudem waren die Probanden weniger bereit, einen Termin mit den Ärztinnen und Ärzten zu vereinbaren, die angeblich KI nutzten.
Blindes Vertrauen in die KI?
Die Autoren vermuten als einen möglichen Grund für das Ergebnis ihres Experiments, dass Menschen die Sorge hätten, Ärztinnen und Ärzte könnten der KI blind folgen.
„Wenn Ärzte ihre Patienten über den Einsatz von KI informieren, sollten sie darauf abzielen, potenzielle Bedenken auszuräumen und mögliche Vorteile hervorzuheben“, schlussfolgern die Autoren.
So könnte etwa der Einsatz von KI für Verwaltungszwecke dazu beitragen, dass Ärzte mehr Zeit für die Betreuung ihrer Patienten hätten: „Trotz einer zunehmenden Technologisierung könnte auf diese Weise unsere Gesundheitsversorgung durch KI sogar menschlicher werden.“
„Nachvollziehbar, kontrollierbar und vertrauenswürdig“
Die Würzburger Studie ist nur eine Arbeit von mehreren, die sich mit den Folgen der wachsenden KI-Implementierung in der Medizin beschäftigen. Dabei werden jeweils ganz unterschiedliche Aspekte beleuchtet – von der Verlässlichkeit entsprechender Anwendung über den tatsächlichen Benefit bis hin zur Akzeptanz – mit zum Teil widersprüchlichen Ergebnissen.
Um Akzeptanz bei den Patientinnen und Patienten zu schaffen, sei die richtige Kommunikation wichtig, sagt Christian Ledig, Inhaber des Lehrstuhls für Erklärbares Maschinelles Lernen an der Otto-Friedrich-Universität Bamberg: „Die Systeme, über die wir reden, sind deterministisch und nicht wirklich intelligent. Sie erkennen nur sehr gut Muster.“
Auch wenn die KI als Systemtechnologie viele Herausforderungen für die Gesellschaft mit sich bringe, sei es nicht hilfreich, wenn in der Bevölkerung Ängste vor autonomen, intelligenten Systemen geschürt würden, so Ledig.
Felix Nensa, Forschungsgruppenleiter am Institut für künstliche Intelligenz in der Medizin und leitender Oberarzt am Institut für Diagnostische und Interventionelle Radiologie und Neuroradiologie am Universitätsklinikum Essen, ergänzt: „Die Akzeptanz von KI in der Medizin hängt entscheidend davon ab, ob die Anwendungen nachvollziehbar, kontrollierbar und vertrauenswürdig sind.“
Nutzende müssten jederzeit erkennen können, auf welcher Grundlage eine Entscheidung getroffen wurde – und aktiv in den Prozess eingreifen können, betont Nensa und erklärt weiter: „Transparenz ist dabei nicht nur ein technisches, sondern auch ein kommunikatives Designkriterium.“
Weder Holo-Doc noch sprechender Roboter
Für Philipp Berens von der Eberhard Karls Universität Tübingen merkten bei einem guten KI-basierten Medizinprodukt weder Arzt noch Patient, dass KI drinstecke: „Im Bild des Augenhintergrunds aus einer KI-unterstützten Kamera wären auffällige Läsionen schon markiert.“
Eine Verdachtsdiagnose und ein möglicher Krankheitsverlauf mit und ohne Behandlung oder bei unterschiedlichen Behandlungswegen würden in einer Softwareoberfläche zur Verfügung gestellt.
„Man muss sich das nicht wie den Holo-Doc aus Star Trek vorstellen oder als sprechenden Roboter“, so der Professor für Data Science und Direktor des Hertie Institute for AI in Brain Health.
Daniel Rückert, Leiter des Instituts für KI und Informatik in der Medizin an der Technischen Universität München (TUM), bezeichnet Transparenz als einen der wichtigsten Faktoren für Vertrauen und Akzeptanz für KI in der Medizin. Der Einsatz von KI müsse deshalb alle Seiten miteinbeziehen.
Rückert, der auch Professor für visuelle Informationsverarbeitung am britischen Imperial College London ist, sagt: „Die Verantwortung für medizinische Diagnosen und Therapieentscheidungen liegt in Deutschland immer beim behandelnden Arzt – auch wenn der Arzt hier KI einsetzt.“
Wie über den Einsatz von KI-Tools informiert werden sollte
Angesichts der Vorbehalte auf Patientenseite wie in der eingangs erwähnten Würzburger Studie könnte man auf die Idee kommen, den Einsatz von KI einfach zu verschweigen.
Ethisch wäre das zwar kaum vertretbar – allerdings erfordert die Frage nach der entsprechenden Patientenaufklärung eine differenzierte Antwort. Das schreibt ein Forschungsteam der US-amerikanischen Stanford University in einem aktuellen Perspective-Beitrag im Fachblatt JAMA (2025, DOI: 10.1001/jama.2025.11417) und schlägt ein neues Framework dafür vor.
Die Gruppe formuliert: „Es ist weder praktikabel noch wünschenswert, die Patienten über jedes in einer Gesundheitseinrichtung eingesetzte KI-Tool zu informieren.“ Nicht immer liege die Offenlegung von KI-Werkzeugen in deren Interesse.
Ob Patienten über den Einsatz eines KI-Tools informiert oder gar um Einwilligung gebeten werden sollten, müsse laut dem vorgeschlagenen Framework von zwei Faktoren abhängen: dem Risiko für gesundheitlichen Schaden und der Möglichkeit für Patientinnen und Patienten, auf die Information hin zu handeln. Bei einem KI-gesteuerten OP-Roboter etwa sei eine ausdrückliche Einwilligung sinnvoll, bei internen Prognosealgorithmen zur Blutlagerung dagegen nicht notwendig. Weitere Beispiele aus US-Perspektive führt das Team in einer Übersicht auf (s. Tabelle am Ende).
Zudem könne eine übermäßige Betonung von Einwilligungserklärungen kontraproduktiv sein, heißt es in dem Beitrag: Sie berge die Gefahr, dass Transparenz „misstrauensfördernd“ wirke, etwa wenn Patienten eine automatisch generierte, aber ärztlich geprüfte E-Mail als weniger empathisch bewerten, sobald sie von ihrem KI-Ursprung erfahren.
Statt Einzelentscheidungen dem medizinischen Personal zu überlassen, fordern die Forschenden klare Richtlinien auf Organisationsebene. Kliniken sollten zum einen offenlegen, welche KI-Tools sie nutzen, und Patientinnen und Patienten verständlich erklären, welche Rolle diese bei der Behandlung spielen. Zum anderen sollten Gesundheitseinrichtungen nach Möglichkeiten suchen, Patientenvertreter in KI-Governance-Prozesse einzubeziehen.
Das Team der Stanford University schreibt: „Beide Schritte berücksichtigen, dass es wichtiger ist, Maßnahmen zu ergreifen, um die Risiken von KI-Tools zu minimieren, als sie nur zu kommunizieren.“
Beispielhafte KI-Anwendungsfälle in der Medizin und Empfehlungen zur Patienteninformation
Übersicht aus dem Perspective-Artikel in JAMA (2025, DOI: 10.1001/jama.2025.11417), mit dem das Forschungsteam aus US-Perspektive illustriert, wie Informationsentscheidungen aussehen und begründet werden können.
* Bei den Empfehlungen wird davon ausgegangen, dass das KI-Modell bei Tests vor der Einführung mit einer ähnlichen Population gut abgeschnitten hat.
Anwendungsfall | Empfehlung und Begründung* |
Einwilligung erforderlich | |
KI-gestützter, nicht autonomer Operationsroboter | Einwilligung, da chirurgische Eingriffe grundsätzlich ein hohes Risiko bergen und Patienten sich auch für eine Operation ohne Robotik entscheiden können. |
Tool zur Analyse genetischer Informationen bei Krebspatienten, um das Ansprechen auf bestimmte Medikamente vorherzusagen und Therapiepläne zu empfehlen | Einwilligung, da Ungenauigkeiten zu schlechten Ergebnissen führen können und Patienten der Nutzung widersprechen können. |
Benachrichtigung empfohlen | |
Prognosealgorithmus zur Erkennung möglicher Fälle von hypertropher Kardiomyopathie auf Basis vorhandener Echokardiographie-Daten | Benachrichtigung der positiv gescreenten Patienten, denn obwohl die Patienten die Anwendung des Tools nicht vermeiden können, kann das Wissen, dass aufgrund eines AI-Algorithmus eine Echokardiographie empfohlen wird, ihre Entscheidung beeinflussen, ob sie die Empfehlung annehmen. |
Generatives KI-Tool zur Formulierung von Antworten auf Patienten-E-Mails | Benachrichtigung, da Ungenauigkeiten Schaden verursachen können und informierte Patienten bei Unklarheiten eher Rückfragen stellen. |
Tool mit Umgebungsaufnahme zur Erstellung von Gesprächszusammenfassungen während des Klinikbesuchs | Benachrichtigung, da Ungenauigkeiten Schaden verursachen können und Patienten die Zusammenfassungen auf Fehler prüfen können. (In einigen US-Bundesstaaten ist rechtlich eine Einwilligung erforderlich.) |
Weder Einwilligung noch Benachrichtigung erforderlich | |
Prognosealgorithmus zur Entscheidung, ob für eine Operation Blut bevorratet werden soll | Weder noch, da Patienten auf solche organisatorischen Entscheidungen keinen Einfluss haben und die Bereitstellung von Blut kein Ersatz für die separate Einwilligung zur Bluttransfusion ist. |
KI-gestützte Mammografieauswertung | Weder noch, wenn man davon ausgeht, dass KI-gestütztes Interpretieren besser ist als menschliches, weil die Ausübung der Wahlmöglichkeit, sich anderweitig versorgen zu lassen, das Risiko eines Schadens erhöhen würde. |
Generatives KI-Tool zur Erstellung von Befundzusammenfassungen auf Basis der Diktate von Radiologen | Weder noch, da das Tool nur die Aussagen des Radiologen zusammenfasst und das Risiko für Patienten gering ist. |
Prognosealgorithmus zur Identifizierung von stationären Patienten, bei denen die täglichen Labortests sicher eingestellt werden können | Weder noch, da Patienten weder die Nutzung des Tools ablehnen noch verlangen können, dass die Laboruntersuchungen fortgesetzt werden; die Entscheidung liegt bei der ärztlichen Fachkraft, der Algorithmus liefert nur eine Empfehlung. |
Generatives KI-Tool zur Unterstützung bei der Erstellung von Anträgen auf Kostenübernahme (Prior Authorization) gegenüber Versicherungen | Weder noch, da das Risiko für Patienten gering ist (da Ablehnungen angefochten werden können) und sie auf diese organisatorischen Prozesse keinen Einfluss haben. |
Diskutieren Sie mit
Werden Sie Teil der Community des Deutschen Ärzteblattes und tauschen Sie sich mit unseren Autoren und anderen Lesern aus. Unser Kommentarbereich ist ausschließlich Ärztinnen und Ärzten vorbehalten.
Anmelden und Kommentar schreiben
Bitte beachten Sie unsere Richtlinien. Der Kommentarbereich wird von uns moderiert.
Diskutieren Sie mit: