ArchivDeutsches Ärzteblatt6/2023ChatGPT: Noch kein Allheilmittel

THEMEN DER ZEIT

ChatGPT: Noch kein Allheilmittel

Kurz, Charlotte; Lau, Tobias; Martin, Mirjam

Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...
LNSLNS

Das Programm ChatGPT weckt weltweit Hoffnungen und Sorgen: In vielen Branchen und Lebensbereichen kann es künftig den Alltag umkrempeln – auch in der Medizin. Expertinnen und Experten sehen großes Potenzial, warnen aber vor zu schneller Einführung und unkritischer Nutzung.

Foto: picture alliance/ANP/Koen van Weel
Foto: picture alliance/ANP/Koen van Weel

Dieses Jahr soll den Durchbruch bringen: 2023 werden sich Anwendungen, die auf künstlicher Intelligenz (KI) basieren, erstmals in der breiten Bevölkerung etablieren. Davon gehen Experten auf dem Gebiet aus. Insbesondere seit das US-Start-up OpenAI im November 2022 seinen Chatbotprototypen ChatGPT der Öffentlichkeit kostenlos zugänglich gemacht hat, sorgt das textbasierte Dialogsystem angesichts seiner Fähigkeiten vielerorts für Diskussionen. Bereits zwei Monate nach der Veröffentlichung der Anwendung verzeichnete OpenAI Schätzungen zufolge 100 Millionen Nutzerinnen und Nutzer (Stand 3. Februar 2023).

Gespeist wird GPT3.5 – das KI-Modul, auf dem die Anwendung ChatGPT aufbaut – aus verschiedenen Quellen, von Nachrichtenartikeln und Büchern über Blogs und Foren bis hin zu sozialen Medien und gesprochener Sprache. Aus rund einer halben Billion Worte Text hat das sogenannte Large Language Model (LLM) gelernt, wie Sprache funktioniert und wie sie sich in welchem Kontext ausdrücken sollte. Die gesamte Wikipedia-Enzyklopädie mache gerade einmal drei Prozent der von GPT3.5 eingelesenen Informationen aus, erklärt die Psychologin und Informatikerin Prof. Dr. rer. nat. Ute Schmid vom Lehrstuhl für Kognitive Systeme der Universität Bamberg dem Deutschen Ärzteblatt (DÄ).

Erstaunliche Fähigkeiten

Das Ergebnis verblüfft in seiner menschlichen Ausdrucksweise. „Was GPT3 kann, hat auch einige KI-Forschende überrascht“, sagt Schmid. Nutzerinnen und Nutzer ohne Kenntnis der dahinterliegenden Mechanismen lässt das schnell vergessen, dass es sich auch bei moderner KI lediglich um Mustererkennung und Sätze handelt, die auf Grundlage von Wahrscheinlichkeitsberechnungen zusammengesetzt wurden – mithin also, anders als vom Namen suggeriert, um keine Intelligenz im umgangssprachlichen Sinne.

Auf welche Quellen genau die KI für eine bestimmte Antwort zurückgreift, erfährt man derzeit noch nicht: „Als KI habe ich keinen Zugang zu einer bestimmten Quelle und kann diese nicht angeben,“ schreibt das Programm auf Nachfrage der Redaktion.

Die Spanne der möglichen Anwendungsfelder in der Medizin ist dennoch groß: ChatGPT oder ähnliche Anwendungen könnten in Zukunft beispielsweise als Diagnose-Unterstützungssystem Verwendung finden, das Ärztinnen und Ärzten hilft, Erkrankungen anhand von Symptomen und Krankengeschichte zu identifizieren – nicht zwangsläufig besser als Ärzte, dafür aber in nur einem Bruchteil der Zeit. Hierbei müssen Anwendungen wie ChatGPT allerdings von Programmen unterschieden werden, die Bildgebung wie Röntgenbilder, Blut- und Gewebeproben oder MRT-Scans analysieren. Diese KI-gestützten Systeme gleichen die Bildgebung in wenigen Sekunden bis Minuten mit Tausenden bis Millionen bereits vorliegenden Scans ab und schlagen eine entsprechende Diagnose vor. Ärzte überprüfen, ergänzen oder korrigieren die gefundene Diagnose. Durch diese Unterstützung können Radiologen oder Pathologen bereits heute deutlich Zeit einsparen. In Ländern wie den USA oder Israel arbeiten pathologische Institute in großen Krankenhäusern bereits routinemäßig mithilfe solcher Systeme.

Arztbriefe vom Chatbot

Textbasierte Dialogsysteme wie ChatGPT wiederum können auch bei der Entscheidungsfindung zur besten Therapie oder Behandlung unterstützen, indem es relevante medizinische Daten und Empfehlungen liefern.

Im ärztlichen Kontext werde ChatGPT insbesondere bei der Erstellung von Arztbriefen hilfreich sein, sagt Prof. Dr. med. Michael Forsting, Neuroradiologe und Leiter des Instituts für Künstliche Intelligenz in der Medizin (IKIM) am Universitätsklinikum Essen dem . „Bislang ist ChatGPT in der Medizin noch nicht besonders gut“, ergänzt Forsting. Allerdings handele es sich bei der Anwendung um ein „unsagbar mächtiges Werkzeug“. Sobald OpenAI, das Unternehmen hinter ChatGPT (Kasten) das Programm explizit mit Medizindaten füttere, könne es dazu beitragen, komplexe medizinische Zusammenhänge in einfache Sprache zu bringen. Damit könnten sich Ärztinnen und Ärzte die Doppelarbeit sparen, medizinisch komplexe Themen für Laien verständlich zu formulieren, erklärt Forsting.

Die Fachärzte für Frauenheilkunde und Geburtshilfe Univ.-Prof. Dr. med. Philipp Soergel vom Johannes Wesling Klinikum Minden, Universitätsklinikum der Ruhr-Universität Bochum, und Dr. med. Albert Neff vom Krankenhaus Lübbecke sehen die Erstellung von Arztbriefen ebenfalls als diejenige Anwendung, die die Arbeitsbelastung von Ärztinnen und Ärzten verringern kann. Die beiden Ärzte haben ChatGPT einige Aufgaben gegeben, die für sie direkt Zeit einsparen würden (siehe folgender Beitrag). Ihre Bilanz: „ChatGPT liefert einen guten Grundstock für einen Arztbrief“, sagt Neff. Allerdings konfabuliere das Programm mitunter. „Das bedeutet, dass dieses mächtige Tool auch unzutreffende Dinge bis zu absolutem Quatsch schreiben kann, obwohl diese Dinge sehr glaubwürdig erscheinen mögen“, erklärt Neff.

In ihrem Arztbriefbeispiel erfindet ChatGPT etwa eine durchgeführte Mammografie und dichtet hinzu, dass die Narkose gut vertragen wurde, obwohl die Ärzte ChatGPT diese Informationen gar nicht mitgeteilt hatten. „Die Selbstüberschätzung ist eins der größten Probleme dieses Modells“, sagt auch Dr. Narges Ahmidi, Leiterin der Abteilung „Reasoned AI Decisions“ am Fraunhofer-Institut für Kognitive Systeme IKS. „Wenn man mit dem Programm spricht, hat man das Gefühl, dass es eine Menge weiß.“ Aktuell gebe es aber keinen Weg herauszufinden, wie sicher die Aussage einer solchen KI-Anwendung ist. Ahmidi ist der Meinung, dass die Entwickler einen Weg finden müssen, um die Zuverlässigkeit einer Aussage anzuzeigen.

„Man kriegt das System noch relativ schnell dazu, Unsinn zu reden“, betont auch Schmid. Die wichtige Frage sei, wie subtil die Fehler sind und wie umfangreich die nötige Nachkontrolle durch den Menschen ist. Das ließe sich auch technisch lösen. „Vielleicht kann ich, beispielsweise bei Arztbriefen, einfache Prüfvorgaben, die der Mensch auch befolgen würde, im Code hinterlegen und so die Fehlerwahrscheinlichkeit verringern.“

Bei einfachen Texten sinnvoll

Neben Arztbriefen und anderen textbasierten Arbeiten im Versorgungsalltag können Large Language Models (LLM) prinzipiell insbesondere dort erfolgreich sein, wo eher einfache Texte geschrieben werden müssen, findet Soergel. Dies sei zum Beispiel bei Webseiten der Fall.

Gerade für jüngere Ärztinnen und Ärzte ohne langjährige Erfahrung könnten solche Chatbots perspektivisch auch helfen, bei bestimmten Konstellationen schneller eine entsprechende Diagnose zu finden, betont Forsting.

Ahmidi vom Fraunhofer IKS sieht LLMs als Chance, auch für Patientinnen und Patienten, an Informationen zu kommen.

So ließen sich beispielsweise zwei mögliche Therapien miteinander vergleichen um herauszufinden, welche gegebenenfalls besser sei. LLMs könnten damit bei einer Entscheidungsfindung hilfreich sein, so die Expertin. Als Erweiterung von „Dr. Google“ tauge ChatGPT jedoch nicht, wendet die Psychologin und Informatikerin Schmid ein. Denn die Probleme, die das jetzt bereits beschere, würden dadurch nur verstärkt: Laien können medizinische Informationen oftmals nicht richtig interpretieren und würden dadurch verunsichert oder auf falsche Ideen gebracht. Während Google als Suchergebnis aber eine Liste mit vielen Seiten unterschiedlicher Qualität und Verlässlichkeit auswirft, die Anwender in Betracht ziehen und vergleichen können, liefert ChatGPT eine einzige vorgefertigte Antwort, die dem Nutzer dann zur Interpretation offen steht und bei der man sich – anders als bei seriösen Webseiten – im Zweifelsfall nicht auf die Richtigkeit der Informationen verlassen kann. Auch der Gynäkologe Soergel sieht diese Möglichkeit eher kritisch. „Patientinnen und Patienten werden, ob uns das gefällt oder nicht, ihre Symptome eingeben und das Modell fragen, was sie haben.“ Bei der Eingabe von Rückenschmerzen komme man unweigerlich auf Tumormetastasen, obwohl degenerative Erkrankungen vielfach häufiger sind, so Soergel. Dadurch könnten Patientinnen und Patienten beunruhigt oder sogar zu falschen Therapiemethoden getrieben werden.

„Im Moment sind Chatbots noch nicht so weit, selbstständig in der medizinischen Versorgung eingesetzt zu werden, weil sie nicht unserem Anspruch an evidenzbasierte, patientenzentrierte Medizin entsprechen“, sagt Prof. Dr. med. Kai Wehkamp, Geschäftsführender Oberarzt der Klinik für Innere Medizin I des Universitätsklinikums Schleswig-Holstein (UKSH) und Leiter des Projekts MAIA, bei dem ein KI-basiertes System zur Früherkennung von Komplikationen und Krankheiten implementiert werden soll.

Wiedergabe statt Einschätzung

ChatGPT könne beispielsweise nicht den Evidenzgrad oder die Relevanz und Passung von Studienergebnissen bewerten und auch keine Quellen nennen. „Wenn der Anwender unkritisch damit umgeht, kann dies Gefahren bergen, weil beispielsweise seltene Konstellationen übersehen werden oder ein Bias aus der Vergangenheit in eine aktuelle Empfehlung übersetzt wird“, warnt er, betont jedoch auch, dass diese heutigen Schwächen in Zukunft durchaus noch abgestellt werden könnten. Hier spiele es auch eine Rolle, welche Mechanismen zur Verringerung des sogenannten Automation Bias (Kasten) entwickelt werden können.

Schmid führt den Gedanken weiter und warnt davor, dass das Phänomen des sogenannten Anthropomorphismus künftig eine größere Rolle spielen dürfte: Aufgrund der beeindruckend menschenähnlichen Kommunikation von Programmen wie ChatGPT würden viele Menschen dazu tendieren, deren strukturelle Fähigkeiten zu überschätzen und ihnen zu viel Vertrauen entgegenzubringen. „Wir Menschen sind evolutionär sehr darauf ausgerichtet, dass wir anderen autonom handelnden Entitäten ähnliche mentale Fähigkeiten zubilligen wie uns“, erklärt Psychologin und Informatikerin Schmid. Interagieren wir mit einem KI-System, würden wir sehr schnell dazu neigen, unbewusst auch dem Computerprogramm diese mentalen Fähigkeiten zu unterstellen. „Insbesondere, wenn etwas so pseudo-akkurat daherkommt, sprechen wir ihm schnell Vertrauen zu“, betont Schmid. „Blindes Vertrauen in eine Systemausgabe ist aber prinzipiell niemals angebracht.“

All das sind jedoch Phänomene, die bekannt sind und mit denen Menschen entsprechend umzugehen lernen können. Für die Zukunft zeigt sich Wehkamp deshalb durchaus optimistisch. „Richtig und mit Verantwortung angewendet, kann der Nutzen in Zukunft enorm sein“, sagt er. „Wir als Menschen können die unglaublichen Mengen an Wissen und medizinischen Daten, die mittlerweile zum Beispiel auch durch Gen- und Proteindaten generiert werden, gar nicht mehr überblicken.“ Systeme wie LLM hingegen würden sehr bald so weit sein, alles relevante Wissen zu einem Thema zusammenzutragen und auch in kürzester Zeit die Datenmengen von Patienten zu überschauen und auszuwerten – im Bruchteil der Zeit, die ein Mensch benötigen würde.

Das könne insbesondere dort helfen, wo es keinen umfangreichen Zugang zu solchem Wissen gibt oder wo keine Spezialisten zur Verfügung stehen. So könnten Unterstützungssysteme künftig dabei helfen, in der hausärztlichen Versorgung im ländlichen Bereich ungewöhnliche Symptomkonstellationen einzuordnen und so die Überweisung zu einem passenden Spezialisten zu beschleunigen. Eine besonders große Hilfe könne das auch in unterversorgten Gegenden in Entwicklungsländern sein. „Da kann ein KI-System schnell besser sein als die realen Versorgungsmöglichkeiten“, sagt Wehkamp. „Das wird die ärztliche Rolle und die damit verbundenen Aufgaben verändern und es ist wichtig, dass die Ärzteschaft dies aktiv im Sinne einer guten Versorgung mit gestaltet.“

Mangelnde Transparenz

Diese Mitgestaltung müsse über die rein individuelle Anwendung bestimmter KI-Systeme hinausgehen, fordert Bart de Witte. Der KI-Experte und ehemalige Leiter der Abteilung Digital Health DACH beim IT-Riesen IBM hat vor fast vier Jahren die Hippo AI Foundation gegründet, mit der er medizinische Daten der Allgemeinheit zur Verfügung stellen will, damit sich KI-basierte Gesundheitsforschung nicht in privater Hand konzentriert. Er warnt davor, speziell ChatGPT zu naiv entgegenzutreten, denn das Programm sei in doppelter Hinsicht eine Blackbox: Nicht nur sei die Entscheidungsfindung von Deep-Learning-Algorithmen rein technisch oft nicht mehr nachvollziehbar – auch sei in kommerziellem Code nicht von außen zu beurteilen, welche Limitierungen oder Verzerrungen bewusst hineinprogrammiert werden. „So lange ChatGPT nicht offen ist, sollte man vermeiden, es in der Gesundheitsversorgung zu skalieren“, fordert er.

Bei anderen kommerziellen KI-Anwendungen wie dem Text-zu-Bild-Programm Stable Diffusion habe sich bereits gezeigt, dass vorgelagerte Logiken eincodiert wurden, um bestimmte Inhalte zu sperren oder zu befördern, beispielsweise aus Gründen der kulturellen Sensibilität. Solche nicht nachvollziehbaren Verzerrungen könnten unkalkulierbare Risiken bergen, wenn es um medizinische Daten geht. Außerdem stelle sich grundsätzlich die Frage, was mit dem durch ChatGPT generierten Wissen und den Daten geschieht, wenn sie in privater Hand bleiben (Kasten S. 2).

Auch de Witte ist optimistisch: „Die Erfahrung der vergangenen Jahre zeigt, dass kommerzielle KI-Dienste sehr schnell an Marktanteilen verlieren, sobald es Open-Source-Alternativen gibt.“

Die Informatikerin Schmid sieht das ähnlich. „Ich glaube, wir brauchen ein europäisches Sprachmodell“, sagt sie. Bei so wichtigen Zukunftstechnologien müsse Europa eine gewisse Autonomie haben. „Die Frage ist nur, ob wir hier überhaupt die Infrastruktur und die Ressourcen haben, solche Modelle zu trainieren und zu halten.“

Helfer bei Routinearbeiten

Sie geht davon aus, dass LLMs künftig eine zentrale Rolle in der Versorgung spielen werden, indem sie den gesamten Bereich textbasierter Dienstleistungen von der Dokumentation über Arztbriefe und Behandlungspläne bis zu Therapieempfehlungen übernehmen. „Was ich dagegen nicht glaube, ist, dass es eine gute Idee ist, die Beratung von Patienten oder komplexe Diagnosen von KI-Systemen betreiben zu lassen.“ Dafür sei aber ohnehin mehr Zeit, wenn KI-Programme die Ärzte von repetitiven Arbeiten wie der Dokumentation entlasten. Ausgerechnet die Technisierung der Medizin könnte sie so menschlicher machen. „Ich glaube, die Zukunft liegt in der Kombination aus KI-basierten Diensten und menschlicher Korrektur“, sagt auch Schmid. Aus Wehkamps Sicht wiederum ist es vor allem im Bereich Fehlererkennung und Qualitätssicherung gut möglich, dass KI-Programme schon in naher Zukunft so weit sind, Ärzte routinemäßig auf Fehler und Risiken beziehungsweise Abweichungen von Qualitätsvorgaben hinzuweisen.

Er bestätigt auch de Wittes Warnung: Es gebe aus der Wirtschaft großen Druck, KI-Programme in die Versorgung zu bringen, sagt er. „Die Ärzteschaft hat eine besondere Verantwortung, hier den Finger zu heben und auf einen verantwortungsvollen Umgang zu bestehen“, sagt er. „Wenn für KI-Anwendungen wissenschaftlich bewiesen werden kann, dass sie einen Mehrnutzen haben, dann sollten wir sie einsetzen.“

In der Wissenschaft bieten Chatbots ebenfalls neue Möglichkeiten, sowohl bei der Texterzeugung als auch bei der Recherche. Ob ein Chatbot allerdings auch selbst wissenschaftliche Fragestellungen kreieren kann, die er auch selbst beantwortet, sei noch völlig unklar, betonte KI-Experte und Mediziner Forsting. Das Problem, dass ChatGPT derzeit keine Quellen nennt, könne vonseiten des Unternehmens aber einfach gelöst werden, ist Forsting überzeugt. „Ich glaube, dass sich die Wissenschaftswährung ändern wird“, betont er. Statt der heutigen Währung Impactpunkte und Drittmittel werde die Wissenschaftswährung der Zukunft in Produkten und Lizenzen bestehen, glaubt Forsting.

Grundlegende Veränderung

Damit meint er, dass Algorithmen viel besser quantifizieren können als Menschen und dass sich dadurch die Wissenschaft grundlegend verändern werde. Insgesamt werden KI-Anwendungen die Medizin „schneller, besser und personalisierter machen“ ist er überzeugt. Für ihn gebe es dabei kein Risiko, wenn Algorithmen, die im ärztlichen Kontext angewendet, auch von wissenschaftlichen Studien begleitet werden. „Wenn herauskommt, dass die Sensitivität oder Spezifität deutlich geringer ist, als das Unternehmen angibt, dann wird das Programm nicht angewendet“, sagt Forsting. Für KI-Anwendungen, die am Uniklinikum Essen heute schon verwendet werden, gebe es bereits wissenschaftliche Studien, aufgrund derer die Programme ausgewählt werden.

Auch Psychologin und Informatikerin Schmid sieht großes Potenzial in der Wissenschaft. So gebe es spannende Forschungsansätze mit LLMs in der sogenannten Named-entity Recognition, also der Datenextraktion, bei der KI-Systeme aus unstrukturierten Texten strukturierte Informationen gewinnen. „Es gibt so viele Arztbriefe, die unstrukturiert als Text vorliegen – wenn es da gelingt, Informationen wie Diagnose, Medikamente, Alter, Krankheit und dergleichen weiter zu extrahieren, hätte man eine riesige Datenbank für die Forschung“, erklärt sie.

Verschiedene große Firmen arbeiteten zurzeit daran, LLMs für medizinische Zwecke zu veröffentlichen, so Ahmidi. „Man trainiert das LLM einmal mit dem gesamten Internet und von da an würde man es nur noch auf kleinere Datensätze anpassen.“

So hat Google bereits einen Chatbot trainiert, der zusätzlich zum allgemeinen Datensatz mit medizinischen Inhalten gefüttert ist. Das KI-Modell MedPalm gibt nach speziellem medizinischen Training Antworten, deren Genauigkeit der von Ärzten nur knapp unterlegen ist: 92,6 versus 92,9 Prozent. So lautete nach Angaben des Konzerns die Einschätzung eines Gremiums von Klinikern. Das Vorgängermodell Flan-Palm zeigte dagegen nur eine Quote an Richtig-Antworten von 61,9 Prozent. Die Multiple-Choice-Fragen des amerikanischen Staatsexamens konnte Flan-Palm dagegen bereits mit einer Genauigkeit von 67,6 Prozent richtig beantworten. Auch ChatGPT, das nicht speziell auf medizinische Inhalte trainiert ist, war knapp unter der Bestehensgrenze des Examens.

LLMs, die mit medizinischen Daten angereichert sind, könnten zukünftig ärztliches Wissen zusammenfassen, sagt Ahmidi. „Jeden Tag gibt es Neuerungen in der Medizin und als Arzt muss man sich weiterbilden.“ Ein solcher Chatbot könnte also auch in der Fortbildung von Medizinerinnen und Medizinern eine große Hilfe darstellen. Dafür sollte das Modell nicht an allgemeine medizinische Inhalte, sondern an das Fachgebiet des jeweiligen Arztes angepasst sein, der das Modell nutzt.

Mit der absehbaren Anwendbarkeit im Wissenschaftsbetrieb dringt OpenAI zudem in einen weiteren Geschäftsbereich von Alphabet, dem Mutterkonzern der Suchmaschine Google, ein.

Techriesen müssen mithalten

Nicht umsonst haben die Nachrichten über ChatGPT in der Führungsetage von Alphabet Alarm ausgelöst: GPT könnte dank seiner Konversationsfähigkeit die Suchmaschine der Zukunft sein. Als Reaktion will der Konzern seine eigene führende Gesprächs-KI schon „sehr bald“ der Öffentlichkeit zugänglich machen, wie CEO Sundar Pichai jüngst erklärte. Gemeint ist LaMDA – jenes Programm, das vergangenen Sommer in den Medien war, weil ein ehemaliger Google-Entwickler überzeugt ist, es habe ein eigenes Bewusstsein entwickelt. Auch darüber hinaus hat Google noch etwas in der Pipeline: den Chatbot PaLM, der mit 540 Milliarden Parametern mehr als dreimal so viele Schaltstellen haben soll wie GPT3.5. Allein schon, weil dieses Technologiewettrennen derzeit so enorm an Fahrt aufnimmt, könnte sich 2023 auch in der Medizin die Nutzung von KI beschleunigen.

„Es ist interessant, wie schnell sich alles entwickelt. ChatGPT kam Anfang 2022 heraus und jetzt haben wir bereits eine Version, die zehnmal größer ist“, erklärt Ahmidi vom Frauenhofer IKS. Die Wissenschaftlerin ist allerdings der Meinung, dass keine KI jemals einen Arzt oder eine Ärztin ersetzen kann: „Zwischen einem Arzt und einem Patienten besteht viel menschliche Empathie.“ So nutze ein Arzt auch ungesagte Inhalte, wie Emotionen, für seine Diagnosefindung ein. „Wenn ein LLM gut ist, kann es dem Arzt assistieren,“ schließt Ahmidi. Von Metakognition, also der Nutzung von Kontextinformationen über Intentionalität bis zum Verständnis der eigenen Identität seien die Unterschiede zu menschlichem Bewusstsein schlicht zu grundlegend, betont auch die Psychologin Schmid: „Ich bin, wie die meisten anderen Experten auch, mit der Zeit immer mehr davon überzeugt, dass bestimmte Aspekte menschlicher Intelligenz nicht von einem synthetischen System reproduzierbar sind.“ Charlotte Kurz,

Tobias Lau, Dr. med. Mirjam Martin

Start-up mit Milliardenkapital

ChatGPT ist ein sogenanntes Large Language Model (LLM), das anhand weniger Informationen Texte kreieren kann. Hinter der Abkürzung GPT verbirgt sich bereits die Funktionsweise des Programms: Sie steht für „Generative Pre-trained Transformer“, ein künstliches neuronales Netz mit 175 Milliarden Parametern, das durch Input seiner Nutzerinnen und Nutzer trainiert wird – deshalb stellt das 2015 gegründete Start-up OpenAI aus San Francisco auch einen kostenfreien Zugang bereit. Die Nutzer sind angehalten, nach einer Interaktion ein Feedback zu geben, damit die KI daraus lernt, wie gut die eigene Antwort war. Die aktuelle Version greift dabei nur auf Quellen bis einschließlich 2021 zurück. Aufgrund der enormen Nachfrage kommt es regelmäßig dazu, dass Nutzer nicht auf ChatGPT zugreifen können. OpenAI hat deshalb ein Bezahlmodell eingeführt, bei dem Nutzer für 20 US-Dollar im Monat bevorzugten Zugang erhalten.

Zu den wichtigsten Investoren gehört neben Techunternehmer Elon Musk auch der Softwaregigant Microsoft. Medienberichten zufolge investiert er zehn Milliarden US-Dollar und will schon in Kürze ChatGPT in seine Cloud-Lösung Azure und in Programme wie MS Office integrieren, was es Millionen von Menschen im Arbeitsalltag nutzbar machen würde. Die bisher verwendete Version GPT 3.5 werde bald von GPT 4 in den Schatten gestellt, kündigt OpenAI bereits an.


Einschätzungen

Foto: Mühlenkreiskliniken
Foto: Mühlenkreiskliniken

„Large Language Models können prinzipiell immer dort erfolgreich sein, wo eher einfache Texte geschrieben werden müssen, zum Beispiel Informationsseiten oder Internetseiten. Das Modell arbeitet mit komplexer Wahrscheinlichkeitsberechnung von Häufigkeiten in der Wortabfolge. Komplexe Texte, die korrekt sein müssen, sind keine Anwendung dafür.“

Univ.-Prof. Dr. med. Philipp Soergel, Johannes Wesling Klinikum Minden

Foto: Fraunhofer IKS
Foto: Fraunhofer IKS

Einer der Bereiche, mit denen Ärztinnen und Ärzte am meisten zu kämpfen haben, ist die Dokumentation von Entlassdokumenten. Mehr als zwei Stunden pro Tag fassen Ärztinnen und Ärzte die Patienteninformationen zusammen. Ich freue mich auf den Tag, wenn sie diese Informationen nicht mehr tippen müssen. Die KI fasst die Notizen des CT-Scans, der Laborwerte und andere schnell erstellte ärztliche Anmerkungen in verständlicher Sprache zusammen. In der Zeit, in der Ärztinnen und Ärzte sonst vor dem Computer sitzen, könnten sie sich um die Patientinnen und Patienten kümmern.

Dr. Narges Ahmidi, Abteilungsleiterin am Fraunhofer-Institut für Kognitive Systeme IKS

Foto: Katrin Mainka Fotografie
Foto: Katrin Mainka Fotografie

„Vielleicht werden die heutigen Schwächen von KI-Systemen in Zukunft abgestellt, aber wir wissen nicht, wie lange dies dauern wird. In jedem Fall werden wir noch lange oder vielleicht sogar immer den Menschen brauchen, der die finale Entscheidung trifft. Und dabei müssen wir zum Beispiel Mechanismen entwickeln, die verhindern, dass Menschen die Empfehlungen von KI-Systemen im Sinne eines Automation Bias unkritisch übernehmen.“

Prof. Dr. med. Kai Wehkamp, Geschäftsführender Oberarzt der Klinik für Innere Medizin I des UKSH und Leiter des Projekts MAIA


Die wichtigsten Grundbegriffe

Künstliche Intelligenz (KI): Überbegriff für alle Anwendungen, die bestimmte Entscheidungsstrukturen des Menschen nachbilden, indem Programme eigenständig Probleme bearbeiten können

Maschinelles Lernen: Teilgebiet der künstlichen Intelligenz; lehrt Maschinen aus Daten und Erfahrung zu lernen, Aufgaben immer besser auszuführen und anhand von Datensätzen Muster erkennen und selbstständige Entscheidungen zu treffen

Deep Learning (DL): Teilbereich des maschinellen Lernens und spezielle Methode der Informationsverarbeitung; neuronale Netze analysieren große Datensätze und lernen selbstständig; Systeme verknüpfen das Erlernte immer wieder mit neuen Inhalten und lernen dadurch weiter

Large Language Models (LLM): Deep-Learning-Algorithmen, die Texte und andere Inhalte auf der Grundlage von Wissen, das aus umfangreichen Datensätzen gewonnen wurde, erkennen, zusammenfassen, übersetzen und generieren können

Text-To-Image Model: übersetzt Text-zu-Bild-Modell; maschinelles Lernmodell, das nach der Eingabe von einer Beschreibung ein Bild erzeugt, das dieser Beschreibung entspricht

Automation Bias: die Neigung von Menschen, Vorschläge von automatischen Entscheidungssystemen, also auch KI-Programmen, unkritischer zu betrachten als jene anderer Menschen und dabei selbst widersprüchliche Informationen zu ignorieren

Kommentare

Die Kommentarfunktion steht zur Zeit nicht zur Verfügung.

Fachgebiet

Zum Artikel

Der klinische Schnappschuss

Alle Leserbriefe zum Thema

Stellenangebote