NewsVermischtesSuizid-Präventions­programm: Facebook soll ethische Grundsätze beachten
Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...

Vermischtes

Suizid-Präventions­programm: Facebook soll ethische Grundsätze beachten

Dienstag, 12. Februar 2019

Junges Mädchen nutzt Facebook /dpa
Gepostete Inhalte in sozialen Medien wie Facebook oder Instagram sind auch für medizinische Forschungszwecke potenziell von Interesse. /dpa

Philadelphia/Boston – Seit 2017 verwendet Facebook einen Algorithmus, um Suizide zu verhindern. Im November 2018 verkündete Mark Zuckerberg, der Algorithmus hätte weltweit bereits zu 3.500 Einsätzen von Ersthelfern geführt.

Studien, die den Nutzen des Screenings nachweisen, wurden jedoch noch nicht publiziert. Da das soziale Netzwerk mit diesem Programm die öffentliche Gesundheit beeinflussen möchte, sollten dieselben Auflagen gelten wie für klinische Forschung, fordern jetzt zwei US-Wissenschaftler in einem Kommentar, der in Annals of Internal Medicine veröffentlicht wurde (2019; doi: 10.7326/M19-0366). Generell begrüßen sie aber den Ansatz von Facebook, um Tode durch Suizid zu verhindern.

Auch deutsche Experten für Ethik und Datenschutz haben sich aufgrund der Publikation zu Wort gemeldet: „Wenn Facebook ohne Einwilligung seiner Kunden ein nicht wissenschaftlich gestütztes Screening zur Aufdeckung eines erhöhten Risikos für eine Selbsttötung einsetzt und dafür die Privatsphäre der Kunden verletzt, ist das ethisch nicht vertretbar“, sagt Christiane Woopen, Vorsitzende des Europäischen Ethikrates (EGE).

Die Direktorin des Cologne Centers for Ethics, Rights, Economics, and Social Sciences of Health (Ceres) schließt sich der Forderung der US-Kommentatoren an und fordert Facebook dazu auf, unter Einbeziehung unabhängiger Wissenschaftler nachzuweisen, dass das Screening mehr nutzt als schadet. Laut einem Artikel der New York Times evaluiert Facebook aufgrund der Privatsphäre nicht einmal, ob die Alarme zutreffend waren.

Angesichts der Konsequenzen wie Polizeieinsätze, verunsicherte Freunde und Familie und der sozialen Stigmatisierung von Selbsttötungen haben solche Fehlalarme schwerwiegende Folgen. Tobias Matzner, Universität Paderborn

Den potenziellen Schaden verdeutlicht Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Universität Paderborn: „Angesichts der Konsequenzen wie Polizeieinsätze, verunsicherte Freunde und Familie und der sozialen Stigmatisierung von Selbsttötungen haben solche Fehlalarme schwerwiegende Folgen.“ Dass hier ein hehrer Zweck verfolgt werde, sollte nicht davon ablenken, dass „dies eine willkürliche Entscheidung der Firma ist, von der wir weder im Positiven noch im Negativen abhängig sein sollten“, sagt er.

Suizidraten bei Jugendlichen und jungen Erwachsenen in Deutschland

Suizid ist nach offiziellen Angaben die zweithäufigste Todesursache unter Jugend­lichen. In Deutschland gab es bei Zehn- bis 20-Jährigen Suizidfälle je 100.000 Einwohner: 2013 – 4,1 (165 Sterbefälle); 2014 – 4,8 (194 Sterbefälle); 2015 – 4,7 (196 Sterbefälle); 2016 – 4,9 (205 Sterbefälle).

Quelle: Gesundheitsberichterstattung des Bundes

Sollte ein prädiktiver Algorithmus Eingang in die Praxis halten, wäre es zudem erforderlich, von den Nutzern entsprechender Plattformen eine individuelle Einwilligung zu erhalten.

Diese Voraussetzung formulierte das Ceres in seiner Studie „Algorithmen in der digitalen Gesundheitsversorgung“, in der sich die Autoren bereits mit der algorithmengestützten Vorhersage von psychischen Erkrankungen bei Nutzern sozialer Medien befasst haben. Auch die New York Times erklärt in ihrem Beitrag, die EU verbiete, Gesundheitsdaten in dieser Weise zu verarbeiten.

Facebooks Muster für Suizidgefahr

Das soziale Netzwerk scannt Beiträge und Kommentare auf verdächtige Hinweise und meldet Personen mit erhöhtem Suizidrisiko an einen zuständigen Mitarbeiter von Facebook. Auf seiner Webseite erklärt Facebook, wie es suizidgefährdete Personen identifiziert. Einen Hinweis auf unmittelbare Gefahr geben beispielsweise Kommentare wie „Sag mir, wo du bist“ oder „Hat jemand von ihm/ihr gehört“. Weniger dringlich ordnet das Netzwerk Beiträge ein die mit „Ruf mit jederzeit an“ oder „Ich bin da für Dich“ kommentiert werden.

Ein weiterer Faktor seien Tag und Uhrzeit des ursprünglichen Postings, heißt es bei Facebook. Die frühen Morgenstunden und Sonntage, bevor die Arbeitswoche beginnt, bewertet der Algorithmus mit einer höheren Suizidgefahr.

Nachdem eine Person als suizidgefährdet eingeordnet wurde, lässt Facebook der betreffenden Person Hilfsangebote, wie Telefonnummern, zukommen. Das soziale Netzwerk kann sich aber auch direkt an die örtlichen Behörden wenden und den Hinweis beispielsweise der Polizei melden. In der EU kämen diese Tools bislang nicht zur Anwendung, teilte eine Sprecherin von Facebook dem Deutschen Ärzteblatt mit. Jeder Facebook-Nutzer (auch in der EU) könne aber gepostete Inhalte melden, die im Zusammenhang mit Suizid oder Selbstverletzung stehen würden.

© gie/aerzteblatt.de
LNS
VG WortLNS LNS LNS

Fachgebiet

Stellenangebote

    Weitere...

    Archiv

    NEWSLETTER