NewsVermischtesSuizid-Präventions­programm: Facebook soll ethische Grundsätze beachten
Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...

Vermischtes

Suizid-Präventions­programm: Facebook soll ethische Grundsätze beachten

Dienstag, 12. Februar 2019

Junges Mädchen nutzt Facebook /dpa
Gepostete Inhalte in sozialen Medien wie Facebook oder Instagram sind auch für medizinische Forschungszwecke potenziell von Interesse. /dpa

Philadelphia/Boston – Seit 2017 verwendet Facebook einen Algorithmus, um Suizide zu verhindern. Im November 2018 verkündete Mark Zuckerberg, der Algorithmus hätte weltweit bereits zu 3.500 Einsätzen von Ersthelfern geführt.

Studien, die den Nutzen des Screenings nachweisen, wurden jedoch noch nicht publiziert. Da das soziale Netzwerk mit diesem Programm die öffentliche Gesundheit beeinflussen möchte, sollten dieselben Auflagen gelten wie für klinische Forschung, fordern jetzt zwei US-Wissenschaftler in einem Kommentar, der in Annals of Internal Medicine veröffentlicht wurde (2019; doi: 10.7326/M19-0366). Generell begrüßen sie aber den Ansatz von Facebook, um Tode durch Suizid zu verhindern.

Anzeige

Auch deutsche Experten für Ethik und Datenschutz haben sich aufgrund der Publikation zu Wort gemeldet: „Wenn Facebook ohne Einwilligung seiner Kunden ein nicht wissenschaftlich gestütztes Screening zur Aufdeckung eines erhöhten Risikos für eine Selbsttötung einsetzt und dafür die Privatsphäre der Kunden verletzt, ist das ethisch nicht vertretbar“, sagt Christiane Woopen, Vorsitzende des Europäischen Ethikrates (EGE). 

Die Direktorin des Cologne Centers for Ethics, Rights, Economics, and Social Sciences of Health (Ceres) schließt sich der Forderung der US-Kommentatoren an und fordert Facebook dazu auf, unter Einbeziehung unabhängiger Wissenschaftler nachzuweisen, dass das Screening mehr nutzt als schadet. Laut einem Artikel der New York Times evaluiert Facebook aufgrund der Privatsphäre nicht einmal, ob die Alarme zutreffend waren.

Angesichts der Konsequenzen wie Polizeieinsätze, verunsicherte Freunde und Familie und der sozialen Stigmatisierung von Selbsttötungen haben solche Fehlalarme schwerwiegende Folgen. Tobias Matzner, Universität Paderborn

Den potenziellen Schaden verdeutlicht Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Universität Paderborn: „Angesichts der Konsequenzen wie Polizeieinsätze, verunsicherte Freunde und Familie und der sozialen Stigmatisierung von Selbsttötungen haben solche Fehlalarme schwerwiegende Folgen.“ Dass hier ein hehrer Zweck verfolgt werde, sollte nicht davon ablenken, dass „dies eine willkürliche Entscheidung der Firma ist, von der wir weder im Positiven noch im Negativen abhängig sein sollten“, sagt er.

Suizidraten bei Jugendlichen und jungen Erwachsenen in Deutschland

Suizid ist nach offiziellen Angaben die zweithäufigste Todesursache unter Jugend­lichen. In Deutschland gab es bei Zehn- bis 20-Jährigen Suizidfälle je 100.000 Einwohner: 2013 – 4,1 (165 Sterbefälle); 2014 – 4,8 (194 Sterbefälle); 2015 – 4,7 (196 Sterbefälle); 2016 – 4,9 (205 Sterbefälle).

Quelle: Gesundheitsberichterstattung des Bundes

Sollte ein prädiktiver Algorithmus Eingang in die Praxis halten, wäre es zudem erforderlich, von den Nutzern entsprechender Plattformen eine individuelle Einwilligung zu erhalten.

Diese Voraussetzung formulierte das Ceres in seiner Studie „Algorithmen in der digitalen Gesundheitsversorgung“, in der sich die Autoren bereits mit der algorithmengestützten Vorhersage von psychischen Erkrankungen bei Nutzern sozialer Medien befasst haben. Auch die New York Times erklärt in ihrem Beitrag, die EU verbiete, Gesundheitsdaten in dieser Weise zu verarbeiten.

Facebooks Muster für Suizidgefahr

Das soziale Netzwerk scannt Beiträge und Kommentare auf verdächtige Hinweise und meldet Personen mit erhöhtem Suizidrisiko an einen zuständigen Mitarbeiter von Facebook. Auf seiner Webseite erklärt Facebook, wie es suizidgefährdete Personen identifiziert. Einen Hinweis auf unmittelbare Gefahr geben beispielsweise Kommentare wie „Sag mir, wo du bist“ oder „Hat jemand von ihm/ihr gehört“. Weniger dringlich ordnet das Netzwerk Beiträge ein die mit „Ruf mit jederzeit an“ oder „Ich bin da für Dich“ kommentiert werden.

Ein weiterer Faktor seien Tag und Uhrzeit des ursprünglichen Postings, heißt es bei Facebook. Die frühen Morgenstunden und Sonntage, bevor die Arbeitswoche beginnt, bewertet der Algorithmus mit einer höheren Suizidgefahr.

Nachdem eine Person als suizidgefährdet eingeordnet wurde, lässt Facebook der betreffenden Person Hilfsangebote, wie Telefonnummern, zukommen. Das soziale Netzwerk kann sich aber auch direkt an die örtlichen Behörden wenden und den Hinweis beispielsweise der Polizei melden. In der EU kämen diese Tools bislang nicht zur Anwendung, teilte eine Sprecherin von Facebook dem Deutschen Ärzteblatt mit. Jeder Facebook-Nutzer (auch in der EU) könne aber gepostete Inhalte melden, die im Zusammenhang mit Suizid oder Selbstverletzung stehen würden.

© gie/aerzteblatt.de

Leserkommentare

E-Mail
Passwort

Registrieren

Um Artikel, Nachrichten oder Blogs kommentieren zu können, müssen Sie registriert sein. Sind sie bereits für den Newsletter oder den Stellenmarkt registriert, können Sie sich hier direkt anmelden.

LNS

Nachrichten zum Thema

15. April 2019
Heidelberg – Eine künstliche Intelligenz (KI) ist mittlerweile bei gezielten Fragestellungen erfahrenen Medizinern in der Diagnostik überlegen. Diese Erfahrung mussten auch 157 Dermatologen aus 12
Künstliche Intelligenz erkennt Melanome zuverlässiger als Uni-Dermatologen
15. April 2019
Heidelberg – Ein neues Verfahren zur automatisierten Bildanalyse von Hirntumoren haben Wissenschaftler des Universitätsklinikums Heidelberg (UKHD) und des Deutschen Krebsforschungszentrums (DKFZ)
Automatisierte Bildanalyse hilft bei Therapie von Hirntumoren
9. April 2019
Brüssel – Die Europäische Union (EU) will bei der Entwicklung von künstlicher Intelligenz (KI) ethische Standards setzen. Die EU-Kommission veröffentlichte heute Leitlinien einer Expertengruppe, die
EU will Standards bei „vertrauenswürdiger“ künstlicher Intelligenz setzen
4. April 2019
Köln – Rund 10.000 Menschen nehmen sich in Deutschland jährlich das Leben, viele davon sind an einer Depression erkrankt. Bei dieser Gruppe ist die Suizidrate etwa 20-mal höher als im Durchschnitt der
Suizidale Krisen bei unipolarer Depression: Aussagekräftige Studien nur zur Verhaltenstherapie
18. März 2019
Tokio – Japan setzt angesichts seiner rasant alternden Gesellschaft bei der Pflege verstärkt auf Roboter und künstliche Intelligenz. Lange Zeit standen einfache Roboter, die Pflegekräfte bei der
Japan setzt verstärkt auf Pflegeroboter und künstliche Intelligenz
28. Februar 2019
Potsdam – Das Land Brandenburg unternimmt große Anstrengungen, die Potenziale innovativer digitaler Technologien für das Gesundheitswesen und die Gesundheitswirtschaft zu heben. Vor zwei Jahren wurde
Künstliche Intelligenz: Nutzen und Gefahren sind abzuwägen
26. Februar 2019
Pittsburgh – Menschen mit Asthma reagieren unterschiedlich auf eine Therapie mit Cortikosteroiden (CS). Bei welchen Patienten Nebenwirkungen durch CS zu erwarten sind, konnten Forscher der Carnegie
VG WortLNS LNS LNS

Fachgebiet

Anzeige

Weitere...

Aktuelle Kommentare

Archiv

Anzeige
NEWSLETTER