Vermischtes

„ChatGPT Gesundheit“ geht ans Netz

  • Freitag, 9. Januar 2026
/picture alliance, CFOTO, CFOTO
/picture alliance, CFOTO, CFOTO

Berlin – Das US-Unternehmen OpenAI startet eine eigene Gesundheitsfunktion für sein Sprachmodell ChatGPT, das selbstständig Patientendaten auswertet. Es wurde nach Unternehmensangaben zusammen mit Ärzten aus 60 Ländern entwickelt, wird aber in Deutschland vorerst nicht verfügbar sein.

Nutzer sollen künftig elektronische Patientenakten, aber auch Wearables, Gesundheits- und Wellness-Apps an ChatGPT anbinden können. Die Künstliche Intelligenz (KI) soll auf Basis dieser Daten dann gesundheitsbezogene Fragen der Nutzer beantworten.

So könne das Sprachmodell beispielsweise Laborergebnisse in leicht verständlicher Sprache erklären, bei der Vorbereitung von Fragen für einen Termin helfen oder Daten aus Wearables und Wellness-Apps sowie die Zusammenfassung von Pflegeanweisungen interpretieren.

Zusätzlich könne das Sprachmodell Kontext aus nicht gesundheitsbezogenen Chats mit dem jeweiligen Nutzer heranziehen, um ein Gesundheitsgespräch relevanter zu gestalten. Dies gehe jedoch nur in eine Richtung. Gespräche außerhalb der Gesundheitsfunktion können demnach nicht auf Dateien, Gespräche oder Erinnerungen zugreifen, die innerhalb des Gesundheitsbereichs erstellt wurden.

Bereits heute sei Gesundheit einer der gängigsten Anwendungsbereiche von ChatGPT, hieß es. Einer anonymisierten Analyse von Gesprächsdaten zufolge würden weltweit jede Woche mehr als 230 Millionen Menschen dem Chatbot Fragen zu Gesundheit und Wohlbefinden stellen.

Mit „ChatGPT Gesundheit“ sollen Nutzer dies nun weiter personalisieren können. So könne der Chatbot ihnen helfen, aktuelle Testergebnisse zu verstehen, sich auf Arzttermine vorzubereiten, Ratschläge zu Ernährung und Trainingsroutine zu erhalten oder die Vor- und Nachteile verschiedener Versicherungsoptionen basierend auf den Gesundheitsmustern zu verstehen. Der letzte Punkt zielt dabei offensichtlich auf den amerikanischen Markt.

Dabei gehe es aber primär darum, alltägliche Fragen zu klären und Muster im Laufe der Zeit zu verstehen. Für Diagnostik und Behandlung sei die Anwendung nicht gedacht. „ChatGPT Gesundheit ist darauf ausgelegt, die medizinische Versorgung zu unterstützen, nicht sie zu ersetzen“, beteuert OpenAI.

Entwickelt und trainiert worden sei „ChatGPT Gesundheit“ über einen Zeitraum von zwei Jahren in Zusammenarbeit mit mehr als 260 Ärztinnen und Ärzten, die in 60 Ländern und Dutzenden von Fachgebieten tätig seien. Ziel sei unter anderem gewesen, zu verstehen, was eine Antwort auf eine Gesundheitsfrage hilfreich oder potenziell schädlich macht.

Mittlerweile habe die Gruppe der beteiligten Ärzte deshalb mehr als 600.000 mal Feedback zu Modellausgaben in 30 Schwerpunktbereichen gegeben. Das habe die Antworten des Chatbots geprägt, beispielsweise wie dringend es zu ärztlichen Nachuntersuchungen ermutigen soll, wie es ohne zu starke Vereinfachungen klar kommunizieren kann und wie es in entscheidenden Momenten die Sicherheit priorisieren kann.

Zur Qualitätssicherung habe OpenAI einen eigenen Bewertungsrahmen namens „HealthBench“ entwickelt, der 5.000 realistische Gesundheitsgespräche enthalte, von denen jedes eine individuelle, von Ärzten erstellte Bewertungsgrundlage zur Beurteilung der Modellantworten beinhalte.

Diese würden widerspiegeln, wie Qualität in der klinischen Praxis beurteilt werde. Dabei würden Sicherheit, Klarheit, angemessene Eskalation der Versorgung und Respekt für den individuellen Kontext im Vordergrund stehen.

Um sensible Gesundheitsdaten zu schützen, werde „ChatGPT Gesundheit“ als separater Bereich mit erhöhtem Datenschutz betrieben. Auch würden Gespräche in „ChatGPT Gesundheit“ nicht genutzt, um die Basismodelle von OpenAI zu trainieren. Das Unternehmen empfehle deshalb, künftig bei gesundheitsbezogenen Daten in den Gesundheitsbereich der Anwendung zu wechseln.

Dort würden Gesundheitsgespräche mit zusätzlichen, gestaffelten Schutzmaßnahmen geschützt und abgeschottet, einschließlich speziell entwickelter Verschlüsselung und Isolierung. Zudem könnten Zugriffskontrollen durch eine Multifaktor-Authentifizierung zusätzlich gestärkt werden.

Ob die bisherige Vorgehensweise für den europäischen Markt ausreicht, erklärt OpenAI nicht. Denn nicht nur sieht die Datenschutzgrundverordnung (DSGVO) besonders strenge Vorgaben für Gesundheitsdaten vor. Seit Februar vergangenen Jahres müssen Unternehmen auch gemäß dem „EU AI Act“ ihre Systeme nach dem Grad des Risikos bewerten und geeignete Maßnahmen ergreifen, um den gesetzlichen Anforderungen gerecht zu werden.

Da die Anwendung mit hoch sensiblen Gesundheitsdaten wie dem Inhalt von Patientenakten arbeitet, dürfte sie als Hochrisikosystem eingestuft werden und entsprechend hohe Auflagen erhalten.

Dazu, wann und ob überhaupt „ChatGPT Gesundheit“ in Europa und Großbritannien verfügbar sein wird, macht OpenAI keine Angaben. Auch in den USA müssen sich Interessenten noch auf eine Warteliste eintragen lassen, um die Funktion bei Freischaltung nutzen zu können.

lau

Diskutieren Sie mit:

Diskutieren Sie mit

Werden Sie Teil der Community des Deutschen Ärzteblattes und tauschen Sie sich mit unseren Autoren und anderen Lesern aus. Unser Kommentarbereich ist ausschließlich Ärztinnen und Ärzten vorbehalten.

Anmelden und Kommentar schreiben
Bitte beachten Sie unsere Richtlinien. Der Kommentarbereich wird von uns moderiert.

Es gibt noch keine Kommentare zu diesem Artikel.

Newsletter-Anmeldung

Informieren Sie sich täglich (montags bis freitags) per E-Mail über das aktuelle Geschehen aus der Gesundheitspolitik und der Medizin. Bestellen Sie den kostenfreien Newsletter des Deutschen Ärzteblattes.

Immer auf dem Laufenden sein, ohne Informationen hinterherzurennen: Newsletter Tagesaktuelle Nachrichten

Zur Anmeldung