Wissenschaftler für Einsatz von ChatGPT und Co in der Forschung

Berlin – Large Language Models (LLMs) wie ChatGPT haben das Potenzial, das Wissenschaftssystem zu revolutionieren. Dabei können die positiven Auswirkungen die negativen deutlich überwiegen. Das ist das Ergebnis einer Umfrage des Alexander von Humboldt Instituts für Internet und Gesellschaft (HIIG).
Für die Erhebung wurden weltweit 72 internationale Fachleute aus den Bereichen Künstliche Intelligenz (KI) und Digitalisierungsforschung befragt. Die Ergebnisse sind als Preprint verfügbar (2023, DOI: 10.48550/arXiv.2306.09928).
Laut Befragung steigern die LLMs die Effizienz von Forschungsprozessen, indem sie verschiedene Aufgaben beim Verfassen und Veröffentlichen von wissenschaftlichen Ergebnissen automatisieren. Sie entlasten Wissenschaftler auf diese Weise bei Berichts- und Antragsverfahren.
Die Studienteilnehmer sind der Meinung, dass Forscher so wieder mehr Zeit haben, sich auf ihre Untersuchungsinhalte zu konzentrieren, und ihre Ergebnisse einem breiteren Publikum effektiv zu vermitteln.
Neben den Vorteilen unterstreicht die Umfrage aber auch die Notwendigkeit, sich mit möglichen negativen Folgen für das Wissenschaftssystem auseinanderzusetzen. Große Sprachmodelle könnten zum Beispiel missbraucht werden, um falsche, irreführende und scheinbar wissenschaftliche Behauptungen aufzustellen. Diese seien auf den ersten Blick oft schwer von echten Forschungsergebnissen zu unterscheiden.
Ein weiteres Problem sehen die Teilnehmer in fehlerhaften Trainingsdaten von großen Sprachmodellen. Fehler könnten unbemerkt in wissenschaftliche Debatten eindringen, wenn Forscher LLM-generierte Inhalte ohne gründliche Überprüfung in ihre tägliche Arbeit einbezögen, so die Sorge.
Im Ergebnis sind neue Kompetenzen auf Forscherseite notwendig. Dazu gehöre beispielsweise die Fähigkeit, Ergebnisse von großen Sprachmodellen kritisch zu bewerten. Die Befragten fordern dafür unter anderem mehr Transparenz bei den Trainingsdaten für die LLMs.
„Obwohl ihr enormer Nutzen die Risiken überwiegt, zeigen die Expertenmeinungen aus den Bereichen KI und Digitalisierung, wie wichtig es ist, die Herausforderungen im Zusammenhang mit Fehlinformationen und dem Verlust des Vertrauens in die Wissenschaft konkret anzugehen“, erklärte Benedikt Fecher, Forschungsleiter am HIIG.
Diskutieren Sie mit
Werden Sie Teil der Community des Deutschen Ärzteblattes und tauschen Sie sich mit unseren Autoren und anderen Lesern aus. Unser Kommentarbereich ist ausschließlich Ärztinnen und Ärzten vorbehalten.
Anmelden und Kommentar schreiben
Bitte beachten Sie unsere Richtlinien. Der Kommentarbereich wird von uns moderiert.
Diskutieren Sie mit: