Leopoldina mahnt Nachschärfung bei Regulierung von Künstlicher Intelligenz an

Berlin – Expertinnen der Nationalen Akademie der Wissenschaften Leopoldina warnen vor überzogenen Erwartungen an Ansätze zur Verringerung von Intransparenz und Bias von Künstlicher Intelligenz (KI). Viele der Gefahren, die von KI ausgehen könnten, würden durch die bisherige Gesetzgebung nicht oder nicht ausreichend adressiert, hieß es heute.
In einem Diskussionspapier plädieren die Ethikprofessorin Judith Simon, die Rechtswissenschaftlerin Indra Spiecker genannt Döhmann sowie die Informatikprofessorin Ulrike von Luxburg für eine bessere Regulierung von KI.
So würden Gesetzeswerke wie der European Artificial Intelligence Act, die General Data Protection Regulation oder das Urheber- und Verfahrensrecht für die öffentliche Verwaltung Gefahren, die zum Teil in der Funktionslogik von KI angelegt sind, nicht ausreichend berücksichtigen.
Dazu würden die Nichterklärbarkeit, die Nichtkontrollierbarkeit, die Nichtneutralität von KI-Anwendungen zählen, aber auch Gefahren, die erst in der konkreten Anwendung oder aufgrund des Zusammenspiels zwischen Mensch und Technik in unterschiedlichen Kontexten und organisationalen Rahmenbedingungen entstehen, wie Verantwortungsdiffusion, die Manipulierbarkeit oder die Täuschung über die Leistungsfähigkeit.
Die inhärente Wertung bei der Datensammlung, -aufbereitung und -sortierung sowie bei der Ausgestaltung von Entscheidungen in generativen KI-Systemen führe dazu, „dass diese Systeme eben keine objektiven, neutralen und dem Menschen grundsätzlich überlegenen Entscheidungen produzieren“, heißt es in einem heute veröffentlichten Diskussionspapier der Leopoldina.
„Vielmehr ist jede generative KI stets das Abbild der ihr zugrunde liegenden Trainingsdaten sowie der Ziele und Zwecke ihrer Entwicklung, die in ihre Funktionslogik untrennbar eingewebt sind.“
Insbesondere vor dem Hintergrund laufender Diskussionen um die Entwicklung vertrauenswürdiger KI in Europa und eines damit verbundenen Wettbewerbsvorteils sei es deshalb geboten, Maßnahmen zur Schadensvermeidung zu forcieren.
So müssten Methoden entwickelt werden, die Verzerrungen aufdecken oder minimieren – sogenanntes De-Biasing – und die Transparenz der Technologie erhöhen, wie es im Forschungsfeld der erklärbaren KI versucht wird.
„Gleichwohl gilt es vor überhöhten Erwartungen an die Entwicklung entsprechender Technologien und Tools zu warnen, weil auch solche Entwicklungsmethoden an Grenzen stoßen oder sogar Risiken bergen, wie beispielsweise die Ausnutzung offener Quellcodes für die großflächige Verbreitung von Deep Fakes im Fall von Open-Source-Lösungen zeigt“, schreiben die drei Professorinnen.
Einen besonders problematischen Aspekt von generativen KI-Anwendungen wie Large Language Models (LLMs) sei zudem bisher nur unzureichend thematisiert worden, nämlich deren Einbindung in zahlreiche Anwendungen, für die sie nicht explizit kuratiert wurden.
So würden in vielen Ländern etwa Brasilien, China, Estland oder den USA bereits Anwendungen für die Rechtsprechung entwickelt, die die richterliche Entscheidungsfindung auf KI-Basis unterstützen oder sogar übernehmen sollen.
„Eine durch KI beeinflusste Rechtsprechung basierte dann allerdings, wenn sie nicht sehr gezielt entwickelt wird, auf verschiedenartigen Daten, Wertvorstellungen, rechtlichen Erfahrungen und Vorurteilen, die zu Trainingszwecken aus verschiedensten Quellen, auch dem Internet, abgeschöpft wurden – und nicht auf einem der jeweiligen Rechtsordnung gemäßen Fundament an rechtlichen Werten und Interessen“, heißt es in dem Papier. Auch wenn darin nicht genannt, ließe sich das Beispiel auch auf Anwendungen im medizinischen Umfeld übertragen.
Die drei Autorinnen plädieren dafür, sich solchen konkreten Fragestellungen zu widmen sowie eine verantwortungsvolle Entwicklung und Nutzung sicherzustellen, statt sich wie bisher von „Scheindebatten über Singularität, das Ende der Menschheit durch KI, die Auflösung des Arbeitsmarkts, eine erforderliche Rechtspersönlichkeit oder Behauptungen über ein vorgebliches Bewusstsein von Chatbots ablenken zu lassen“.
Diskutieren Sie mit
Werden Sie Teil der Community des Deutschen Ärzteblattes und tauschen Sie sich mit unseren Autoren und anderen Lesern aus. Unser Kommentarbereich ist ausschließlich Ärztinnen und Ärzten vorbehalten.
Anmelden und Kommentar schreiben
Bitte beachten Sie unsere Richtlinien. Der Kommentarbereich wird von uns moderiert.
Diskutieren Sie mit: