NewsVermischtesSuizid-Präventions­programm: Facebook soll ethische Grundsätze beachten
Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...

Vermischtes

Suizid-Präventions­programm: Facebook soll ethische Grundsätze beachten

Dienstag, 12. Februar 2019

Junges Mädchen nutzt Facebook /dpa
Gepostete Inhalte in sozialen Medien wie Facebook oder Instagram sind auch für medizinische Forschungszwecke potenziell von Interesse. /dpa

Philadelphia/Boston – Seit 2017 verwendet Facebook einen Algorithmus, um Suizide zu verhindern. Im November 2018 verkündete Mark Zuckerberg, der Algorithmus hätte weltweit bereits zu 3.500 Einsätzen von Ersthelfern geführt.

Studien, die den Nutzen des Screenings nachweisen, wurden jedoch noch nicht publiziert. Da das soziale Netzwerk mit diesem Programm die öffentliche Gesundheit beeinflussen möchte, sollten dieselben Auflagen gelten wie für klinische Forschung, fordern jetzt zwei US-Wissenschaftler in einem Kommentar, der in Annals of Internal Medicine veröffentlicht wurde (2019; doi: 10.7326/M19-0366). Generell begrüßen sie aber den Ansatz von Facebook, um Tode durch Suizid zu verhindern.

Anzeige

Auch deutsche Experten für Ethik und Datenschutz haben sich aufgrund der Publikation zu Wort gemeldet: „Wenn Facebook ohne Einwilligung seiner Kunden ein nicht wissenschaftlich gestütztes Screening zur Aufdeckung eines erhöhten Risikos für eine Selbsttötung einsetzt und dafür die Privatsphäre der Kunden verletzt, ist das ethisch nicht vertretbar“, sagt Christiane Woopen, Vorsitzende des Europäischen Ethikrates (EGE). 

Die Direktorin des Cologne Centers for Ethics, Rights, Economics, and Social Sciences of Health (Ceres) schließt sich der Forderung der US-Kommentatoren an und fordert Facebook dazu auf, unter Einbeziehung unabhängiger Wissenschaftler nachzuweisen, dass das Screening mehr nutzt als schadet. Laut einem Artikel der New York Times evaluiert Facebook aufgrund der Privatsphäre nicht einmal, ob die Alarme zutreffend waren.

Angesichts der Konsequenzen wie Polizeieinsätze, verunsicherte Freunde und Familie und der sozialen Stigmatisierung von Selbsttötungen haben solche Fehlalarme schwerwiegende Folgen. Tobias Matzner, Universität Paderborn

Den potenziellen Schaden verdeutlicht Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Universität Paderborn: „Angesichts der Konsequenzen wie Polizeieinsätze, verunsicherte Freunde und Familie und der sozialen Stigmatisierung von Selbsttötungen haben solche Fehlalarme schwerwiegende Folgen.“ Dass hier ein hehrer Zweck verfolgt werde, sollte nicht davon ablenken, dass „dies eine willkürliche Entscheidung der Firma ist, von der wir weder im Positiven noch im Negativen abhängig sein sollten“, sagt er.

Suizidraten bei Jugendlichen und jungen Erwachsenen in Deutschland

Suizid ist nach offiziellen Angaben die zweithäufigste Todesursache unter Jugend­lichen. In Deutschland gab es bei Zehn- bis 20-Jährigen Suizidfälle je 100.000 Einwohner: 2013 – 4,1 (165 Sterbefälle); 2014 – 4,8 (194 Sterbefälle); 2015 – 4,7 (196 Sterbefälle); 2016 – 4,9 (205 Sterbefälle).

Quelle: Gesundheitsberichterstattung des Bundes

Sollte ein prädiktiver Algorithmus Eingang in die Praxis halten, wäre es zudem erforderlich, von den Nutzern entsprechender Plattformen eine individuelle Einwilligung zu erhalten.

Diese Voraussetzung formulierte das Ceres in seiner Studie „Algorithmen in der digitalen Gesundheitsversorgung“, in der sich die Autoren bereits mit der algorithmengestützten Vorhersage von psychischen Erkrankungen bei Nutzern sozialer Medien befasst haben. Auch die New York Times erklärt in ihrem Beitrag, die EU verbiete, Gesundheitsdaten in dieser Weise zu verarbeiten.

Facebooks Muster für Suizidgefahr

Das soziale Netzwerk scannt Beiträge und Kommentare auf verdächtige Hinweise und meldet Personen mit erhöhtem Suizidrisiko an einen zuständigen Mitarbeiter von Facebook. Auf seiner Webseite erklärt Facebook, wie es suizidgefährdete Personen identifiziert. Einen Hinweis auf unmittelbare Gefahr geben beispielsweise Kommentare wie „Sag mir, wo du bist“ oder „Hat jemand von ihm/ihr gehört“. Weniger dringlich ordnet das Netzwerk Beiträge ein die mit „Ruf mit jederzeit an“ oder „Ich bin da für Dich“ kommentiert werden.

Ein weiterer Faktor seien Tag und Uhrzeit des ursprünglichen Postings, heißt es bei Facebook. Die frühen Morgenstunden und Sonntage, bevor die Arbeitswoche beginnt, bewertet der Algorithmus mit einer höheren Suizidgefahr.

Nachdem eine Person als suizidgefährdet eingeordnet wurde, lässt Facebook der betreffenden Person Hilfsangebote, wie Telefonnummern, zukommen. Das soziale Netzwerk kann sich aber auch direkt an die örtlichen Behörden wenden und den Hinweis beispielsweise der Polizei melden. In der EU kämen diese Tools bislang nicht zur Anwendung, teilte eine Sprecherin von Facebook dem Deutschen Ärzteblatt mit. Jeder Facebook-Nutzer (auch in der EU) könne aber gepostete Inhalte melden, die im Zusammenhang mit Suizid oder Selbstverletzung stehen würden.

© gie/aerzteblatt.de

Leserkommentare

E-Mail
Passwort

Registrieren

Um Artikel, Nachrichten oder Blogs kommentieren zu können, müssen Sie registriert sein. Sind sie bereits für den Newsletter oder den Stellenmarkt registriert, können Sie sich hier direkt anmelden.

LNS

Nachrichten zum Thema

14. Februar 2019
Montreal – Während immer mehr Länder den Cannabiskonsum legalisieren und die THC-Droge zunehmend zu medizinischen Zwecken eingesetzt wird, warnen Epidemiologen vor den Folgen für die Gehirne
Metaanalyse: Früher Cannabiskonsum erhöht Depressions- und Suizidrisiko im Erwachsenenalter
13. Februar 2019
Berlin – In Deutschland ist die Zahl der sogenannten Deaths of Despair, also der „Todesfälle aus Verzweiflung“, bei Menschen mittleren Alters von 1991 bis 2015 deutlich gesunken. Das berichten
In Deutschland ist Gesamtzahl der Todesfälle durch Suizid, Alkohol und Drogen gesunken
12. Februar 2019
Guangzhou – Sind Computer Ärzten demnächst in einer ihrer Kernkompetenzen, der Diagnose von Erkrankungen, überlegen? Chinesische Forscher stellen in Nature Medicine (2019; doi:
Künstliche Intelligenz diagnostiziert genauer als (unerfahrene) Kinderärzte
12. Februar 2019
Seattle – Die absolute Zahl der Suizidtoten ist zwischen 1990 und 2016 weltweit um 6,7 % auf 817.000 pro Jahr gestiegen. Das Bevölkerungswachstum eingerechnet ist die Mortalität durch Suizid damit
Weltweit mehr als 817.000 Tote durch Suizid
7. Februar 2019
Berlin – Künstliche Intelligenz (KI) erleichtert es, Gesundheitsrisiken bei erwachsenen Patienten mit angeborenen Herzfehlern früher zu erkennen und zu behandeln. Dieses Fazit zieht das Kompetenznetz
Künstliche Intelligenz soll Versorgung von Erwachsenen mit angeborenen Herzfehlern verbessern
6. Februar 2019
Gütersloh – Eine große Mehrheit der Menschen in der Europäischen Union (EU) wünscht einer Umfrage zufolge mehr Klarheit und Kontrolle beim Einsatz von Algorithmen. Laut einer heute von der
Mehrheit der EU-Bürger wünscht mehr Kontrolle beim Einsatz von Algorithmen
24. Januar 2019
Coventry/England – Eine Software, die mithilfe künstlicher Intelligenz im Röntgenthorax nach Auffälligkeiten sucht, könnte Radiologen in Zukunft bei einer zeitraubenden Routineaufgabe entlasten. In
VG WortLNS LNS LNS

Fachgebiet

Anzeige

Weitere...

Aktuelle Kommentare

Archiv

Anzeige
NEWSLETTER