NewsVermischtesSuizid-Präventions­programm: Facebook soll ethische Grundsätze beachten
Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...

Vermischtes

Suizid-Präventions­programm: Facebook soll ethische Grundsätze beachten

Dienstag, 12. Februar 2019

Junges Mädchen nutzt Facebook /dpa
Gepostete Inhalte in sozialen Medien wie Facebook oder Instagram sind auch für medizinische Forschungszwecke potenziell von Interesse. /dpa

Philadelphia/Boston – Seit 2017 verwendet Facebook einen Algorithmus, um Suizide zu verhindern. Im November 2018 verkündete Mark Zuckerberg, der Algorithmus hätte weltweit bereits zu 3.500 Einsätzen von Ersthelfern geführt.

Studien, die den Nutzen des Screenings nachweisen, wurden jedoch noch nicht publiziert. Da das soziale Netzwerk mit diesem Programm die öffentliche Gesundheit beeinflussen möchte, sollten dieselben Auflagen gelten wie für klinische Forschung, fordern jetzt zwei US-Wissenschaftler in einem Kommentar, der in Annals of Internal Medicine veröffentlicht wurde (2019; doi: 10.7326/M19-0366). Generell begrüßen sie aber den Ansatz von Facebook, um Tode durch Suizid zu verhindern.

Anzeige

Auch deutsche Experten für Ethik und Datenschutz haben sich aufgrund der Publikation zu Wort gemeldet: „Wenn Facebook ohne Einwilligung seiner Kunden ein nicht wissenschaftlich gestütztes Screening zur Aufdeckung eines erhöhten Risikos für eine Selbsttötung einsetzt und dafür die Privatsphäre der Kunden verletzt, ist das ethisch nicht vertretbar“, sagt Christiane Woopen, Vorsitzende des Europäischen Ethikrates (EGE).

Die Direktorin des Cologne Centers for Ethics, Rights, Economics, and Social Sciences of Health (Ceres) schließt sich der Forderung der US-Kommentatoren an und fordert Facebook dazu auf, unter Einbeziehung unabhängiger Wissenschaftler nachzuweisen, dass das Screening mehr nutzt als schadet. Laut einem Artikel der New York Times evaluiert Facebook aufgrund der Privatsphäre nicht einmal, ob die Alarme zutreffend waren.

Angesichts der Konsequenzen wie Polizeieinsätze, verunsicherte Freunde und Familie und der sozialen Stigmatisierung von Selbsttötungen haben solche Fehlalarme schwerwiegende Folgen. Tobias Matzner, Universität Paderborn

Den potenziellen Schaden verdeutlicht Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Universität Paderborn: „Angesichts der Konsequenzen wie Polizeieinsätze, verunsicherte Freunde und Familie und der sozialen Stigmatisierung von Selbsttötungen haben solche Fehlalarme schwerwiegende Folgen.“ Dass hier ein hehrer Zweck verfolgt werde, sollte nicht davon ablenken, dass „dies eine willkürliche Entscheidung der Firma ist, von der wir weder im Positiven noch im Negativen abhängig sein sollten“, sagt er.

Suizidraten bei Jugendlichen und jungen Erwachsenen in Deutschland

Suizid ist nach offiziellen Angaben die zweithäufigste Todesursache unter Jugend­lichen. In Deutschland gab es bei Zehn- bis 20-Jährigen Suizidfälle je 100.000 Einwohner: 2013 – 4,1 (165 Sterbefälle); 2014 – 4,8 (194 Sterbefälle); 2015 – 4,7 (196 Sterbefälle); 2016 – 4,9 (205 Sterbefälle).

Quelle: Gesundheitsberichterstattung des Bundes

Sollte ein prädiktiver Algorithmus Eingang in die Praxis halten, wäre es zudem erforderlich, von den Nutzern entsprechender Plattformen eine individuelle Einwilligung zu erhalten.

Diese Voraussetzung formulierte das Ceres in seiner Studie „Algorithmen in der digitalen Gesundheitsversorgung“, in der sich die Autoren bereits mit der algorithmengestützten Vorhersage von psychischen Erkrankungen bei Nutzern sozialer Medien befasst haben. Auch die New York Times erklärt in ihrem Beitrag, die EU verbiete, Gesundheitsdaten in dieser Weise zu verarbeiten.

Facebooks Muster für Suizidgefahr

Das soziale Netzwerk scannt Beiträge und Kommentare auf verdächtige Hinweise und meldet Personen mit erhöhtem Suizidrisiko an einen zuständigen Mitarbeiter von Facebook. Auf seiner Webseite erklärt Facebook, wie es suizidgefährdete Personen identifiziert. Einen Hinweis auf unmittelbare Gefahr geben beispielsweise Kommentare wie „Sag mir, wo du bist“ oder „Hat jemand von ihm/ihr gehört“. Weniger dringlich ordnet das Netzwerk Beiträge ein die mit „Ruf mit jederzeit an“ oder „Ich bin da für Dich“ kommentiert werden.

Ein weiterer Faktor seien Tag und Uhrzeit des ursprünglichen Postings, heißt es bei Facebook. Die frühen Morgenstunden und Sonntage, bevor die Arbeitswoche beginnt, bewertet der Algorithmus mit einer höheren Suizidgefahr.

Nachdem eine Person als suizidgefährdet eingeordnet wurde, lässt Facebook der betreffenden Person Hilfsangebote, wie Telefonnummern, zukommen. Das soziale Netzwerk kann sich aber auch direkt an die örtlichen Behörden wenden und den Hinweis beispielsweise der Polizei melden. In der EU kämen diese Tools bislang nicht zur Anwendung, teilte eine Sprecherin von Facebook dem Deutschen Ärzteblatt mit. Jeder Facebook-Nutzer (auch in der EU) könne aber gepostete Inhalte melden, die im Zusammenhang mit Suizid oder Selbstverletzung stehen würden.

© gie/aerzteblatt.de

Leserkommentare

E-Mail
Passwort

Registrieren

Um Artikel, Nachrichten oder Blogs kommentieren zu können, müssen Sie registriert sein. Sind sie bereits für den Newsletter oder den Stellenmarkt registriert, können Sie sich hier direkt anmelden.

LNS

Nachrichten zum Thema

20. Mai 2020
New York − Während einer Epidemie mit einem hoch ansteckenden Erreger wie SARS-CoV-2 kann eine rasche Diagnose eine nosokomiale Ausbreitung verhindern. Eine Klinik im Epizentrum der Epidemie
COVID-19: Künstliche Intelligenz ermöglicht schnelle Diagnose vor PCR-Test
28. April 2020
München – Experten der Plattform Lernende Systeme (PLS) fordern unabhängige Prüfstellen, die Künstliche-Intelligenz(KI)-Systeme für die Medizin zertifizieren, und Kontrollmechanismen, die nur
Wissenschaftler wollen unabhängige Prüfstellen zum Einsatz von künstlicher Intelligenz
28. April 2020
Berlin – Wissenschaftler vom Pathologischen Institut der Charité – Universitätsmedizin Berlin haben gemeinsam mit Forschern der Technischen Universität Berlin ein Bildanalysesystem entwickelt, das mit
Digitales Bildanalysesystem unterstützt Pathologen bei Beurteilung mikroskopischer Präparate
14. April 2020
London – Viele Studien, die behaupten, dass künstliche Intelligenz (KI) medizinische Bilder ebenso gut oder besser beurteilen kann als menschliche Experten, sind von schlechter Qualität und „wohl auch
Fähigkeit von künstlicher Intelligenz bei der Bildbeurteilung möglicherweise überschätzt
8. April 2020
München – Mit den großen Chancen, aber auch den Risiken von Systemen mit Künstlicher Intelligenz (KI) im Gesundheitswesen und möglichen Lösungsvorschlägen befasst sich der Bericht Sichere KI-Systeme
Bessere Medizin mit Künstlicher Intelligenz
7. April 2020
Odense/Quingdao/München – Roboter können bei der Bekämpfung des Coronavirus SARS-CoV-2 hilfreich sein, so etwa bei der Desinfektion in Krankenhäusern. Ein Beispiel dafür ist der Desinfektionsroboter
Mit Robotertechnologie gegen Viren
2. April 2020
Tübingen – Wissenschaftler im Bereich der künstlichen Intelligenz (KI) wollen sich weltweit besser mit den Gesundheitswissenschaften vernetzen, um SARS-CoV-2 zu bekämpfen. „Wesentlich für die
VG WortLNS LNS LNS

Fachgebiet

Anzeige

Weitere...

Aktuelle Kommentare

Archiv

NEWSLETTER