Experten kritisieren Suizid-Prävention von Facebook

Neue Gesetze gefordert: Facebook überprüft Nutzer auf Selbstmordgefahr - Experten schlagen Alarm

Facebook hat außerhalb von Europa einen Algorithmus ausgespielt, der Nutzerdaten und Beiträge auf potenzielle Suizidgefahr überprüft. Das stößt bei Experten in Deutschland auf heftige Kritik. Sie sehen Handlungsbedarf beim Umgang mit Gesundheitsdaten.

Deutsche Ethikexperten kritisieren ein Programm von Facebook, das mit Hilfe künstlicher Intelligenz suizidgefährdete Nutzer erkennen will. Sie forderten in Köln schnelle gesetzliche Regelungen zum Umgang mit sensiblen Gesundheitsdaten. In jedem Fall müsse die Einwilligung der Betroffenen eingeholt werden.

"Wenn Facebook ohne Einwilligung seiner Kunden ein nicht wissenschaftlich gestütztes Screening zur Aufdeckung eines erhöhten Risikos für eine Selbsttötung einsetzt und dafür die Privatsphäre der Kunden verletzt, ist das ethisch nicht vertretbar", erklärte die Vorsitzende des Europäischen Ethikrates (EGE), Christiane Woopen, in Köln. Das Soziale Netzwerk müsse sich an die wissenschaftlichen Standards für Screeningverfahren halten. Dazu gehöre der Nachweis, dass "das Screening mehr nutzt als schadet", so die Medizinethikerin an der Universität Köln.

Seit 2017 benutzt Facebook einen Algorithmus, um Suizide zu verhindern. Er scannt Beiträge und Kommentare auf verdächtige Hinweise und meldet Personen mit erhöhtem Suizidrisiko an einen Mitarbeiter. Dieser kann der betreffenden Person Hilfsangebote zukommen lassen oder sich an Behörden und Polizei wenden.

Die wissenschaftliche Leiterin der Stiftung Datenschutz in Leipzig, Anne Riechert, betonte, Daten zu religiösen oder weltanschaulichen Überzeugungen, Sexualleben und Gesundheit müssten besonders geschützt werden. Dies gelte gerade für Daten, die Ausdruck einer Notlage sein und deren Offenlegung den Betroffenen beschämen könnten. "Im Falle einer Einwilligung muss diese informiert und ausdrücklich erfolgen, was in der Praxis schwierig umzusetzen sein dürfte."

Skeptisch äußerte sich auch der Paderborner Philosoph und Informatiker Tobias Matzner. Er forderte eine "unbedingte Einwilligung der Betroffenen, unabhängige Evaluation und öffentlich nachvollziehbare Kriterien. Nichts davon ist hier gegeben", sagte er. Laut Medienberichten evaluiere Facebook nicht einmal, ob die Alarme zutreffend waren.

Matzner betonte, Facebook arbeite mit Algorithmen und suche eine Art allgemeines Muster für Suizidgefahr. Damit könnten versehentlich auch Einträge ermittelt werden, die nichts mit Suizid zu tun haben. "Angesichts der Konsequenzen wie Polizeieinsätze, verunsicherte Freunde und Familie und der sozialen Stigmatisierung von Selbsttötungen, haben solche Fehlalarme schwerwiegende Folgen." Dass hier ein hehrer Zweck verfolgt werde, sollte nicht davon ablenken, dass "dies eine willkürliche Entscheidung der Firma ist, von der wir weder im Positiven noch im Negativen abhängig sein sollten", sagte er.

Die Wissenschaftler äußerten sich zu einem Artikel im US-Wissenschaftsmagazin "Annals of Internal Medicine". Darin betonen zwei US-Wissenschaftler, dass Facebook einerseits einen Beitrag zur öffentlichen Gesundheit liefere und sich deshalb den Auflagen für klinische Forschung unterwerfen müsse. Generell begrüßten sie jedoch innovative Ansätze wie diesen, um Tode durch Suizid zu verhindern.

(cpas/kna)
Mehr von RP ONLINE