KI: Forensische Analyse enttarnt nur zwei von drei fiktiven Fake-Datensätzen

Cagliari – Sprachmodelle (Large language models, LLM) wie „Generative Pre-trained Transformer (GPT) 4o“ können auch zur Erschaffung gefälschter oder erfundener klinischer Daten genutzt werden. Diese Befürchtung hat eine italienische Studiengruppe mithilfe fiktiver ophthalmologischer Studien und Datensätze bestätigt (JAMA Ophthalmology, DOI: 10.1001/jamaophthalmol.2025.0834).
Nachdem die ersten unbearbeiteten und ungeschönten Datensätze noch durch zahlreiche Fehler identifiziert werden konnten, wurden mit GPT Synthetic Data Creator unter einer detaillierten Anleitung 12 bearbeitete Datensätze kreiert, die bei einer Überprüfung der Authentizität als echt durchgehen sollten. Mit 4 dieser 12 Datensätze gelang dies.
Zum Weiterlesen anmelden
Liebe Leserinnen und Leser,
dieser Beitrag ist nur für eingeloggte Benutzer sichtbar.
Bitte melden Sie sich an oder registrieren Sie sich neu.
Mit der kostenlosen Registrierung profitieren Sie von folgenden Vorteilen:
Exklusive Inhalte lesen
Erhalten Sie Zugriff auf nicht öffentliche Inhalte
Diskutieren Sie mit
Werden Sie Teil der Community des Deutschen Ärzteblattes und tauschen Sie sich mit unseren Autoren und anderen Lesern aus. Unser Kommentarbereich ist ausschließlich Ärztinnen und Ärzten vorbehalten.
Anmelden und Kommentar schreiben
Bitte beachten Sie unsere Richtlinien. Der Kommentarbereich wird von uns moderiert.
Diskutieren Sie mit: