NewsVermischtesExperten: Roboter-Therapeuten brauchen Regeln
Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...

Vermischtes

Experten: Roboter-Therapeuten brauchen Regeln

Mittwoch, 15. Mai 2019

CNStock

München – Künstliche Intelligenz (KI) wird bei psychischen Erkrankungen eingesetzt – doch für die Roboter fehlen bisher umfassende ethische Regeln. Darauf weist eine kürzlich veröffentlichte Studie der Technischen Universität München hin. Untersucht worden sei darin erstmals, wie „verkörperte KI“ die Behandlung psychischer Erkran­kungen unterstütze. Wichtige ethische Fragen zu dieser Technologie seien jedoch unbeantwortet. Es bestehe dringender Handlungsbedarf für Regierungen, Fachver­bände und Forschung, so das Fazit.

Der Universität zufolge werden etwa Roboter-Puppen eingesetzt, mit denen autis­tische Kinder lernen, Menschen besser zu verstehen. Computergenerierte Avatare wiederum helfen, mit Halluzinationen umzugehen. Dazu kommen virtuelle Chats, die Unterstützung bei Depressionen bieten. Die Menschen interagierten mit einem künst­lichen Gegenüber, wodurch neue Dynamiken entstünden. Diese Anwendungen hätten „enormes Potenzial“, heißt es. Sie könnten mehr Menschen Zugang zu einer Behand­lung bieten, weil sie nicht an bestimmte Zeiten und Orte gebunden seien.

Anzeige

Künstliche Intelligenz darf nicht zu einer günstigen Alternative werden

Einigen Betroffenen fällt es zudem leichter, mit der KI zu kommunizieren als mit einem menschlichen Gegenüber, wie die Studie ergab. Die medizinische Anthropologin und Studienautorin Amelia Fiske warnte, verkörperte KI dürfe kein billiger Ersatz für eine Behandlung durch reale Ärztinnen und Ärzte sein. Ihrer Ansicht nach ist es dringend nötig, die Vorteile dieser Technologien zu nutzen, zugleich aber die Nachteile zu ver­mei­den. Der Professor für Psychosomatische Medizin, Peter Henningsen, forderte, das Thema auch im Medizinstudium zu behandeln.

Derzeit werden laut der Professorin für Ethik der Medizin und Mitglied des Deutschen Ethikrates Alena Buyx bereits vermehrt Leitlinien für KI erstellt. Aus ihrer Sicht braucht es aber fachspezifische Regeln für therapeutische KI-Anwendungen: „Wenn die Pro­gramme beispielsweise erkennen können, ob Patienten Suizidgedanken haben, dann müssen sie, genau wie Therapeutinnen und Therapeuten, im Ernstfall klare Warn-Pro­tokolle befolgen."

Bisher gebe es auch kaum Erkenntnisse, wie sich der Kontakt mit KI auf Menschen aus­wirke, so Buyx. Womöglich lerne etwa ein Kind mit einer Störung aus dem Autis­mus-Spektrum durch den Kontakt mit einem Roboter nur, wie man besser mit diesem umgehe, nicht aber mit Menschen. © kna/aerzteblatt.de

Leserkommentare

E-Mail
Passwort

Registrieren

Um Artikel, Nachrichten oder Blogs kommentieren zu können, müssen Sie registriert sein. Sind sie bereits für den Newsletter oder den Stellenmarkt registriert, können Sie sich hier direkt anmelden.

LNS
LNS
Anzeige

Fachgebiet

Stellenangebote

    Anzeige

    Weitere...

    Aktuelle Kommentare

    Archiv

    NEWSLETTER