Seit längerem schon engagiert sich Facebook in der Prävention von Selbsttötungen. Nutzer werden aufgerufen, andere Nutzer zu melden, wenn sie Suizid-Absichten vermuten. Auf der Homepage wird das Thema offensiv angesprochen: „Durch Freundschaften auf der Plattform können sich Menschen in Not mit Personen verbinden, die sie unterstützen“, heißt es dort. „Wenn du dich um ein Familienmitglied sorgst oder dich selbst mit Selbstmordgedanken quälst – wir möchten dir helfen.“
Seit 2017 verwendet Facebook allerdings auch künstliche Intelligenz, um Suizide zu verhindern. Ein Algorithmus scannt Beiträge und Kommentare auf verdächtige Hinweise und meldet Personen mit erhöhtem Suizidrisiko an einen Mitarbeiter. Dieser kann der betreffenden Person Hilfsangebote wie Telefonnummern oder Adressen von Ansprechpartnern zukommen lassen oder kann sich an Behörden oder die Polizei wenden. Facebook-Chef Mark Zuckerberg erklärte im November, die Warnungen des Algorithmus hätten weltweit zu 3.500 Einsätzen von Ersthelfern geführt.
Das Engagement weckt zugleich Misstrauen. Handelt die Datenkrake wirklich so selbstlos? Wer kann die sensiblen Daten nutzen? Schließlich verrät Facebook nicht, nach welchen Kriterien gesucht wird. Und Zuckerberg hat schon angekündigt, dass man auch terroristische Propaganda mit solcher Technik ausfindig machen wolle. Kontrolle? Fehlanzeige.
Am Montag meldeten deutsche Ethikexperten und Wissenschaftler Bedenken an. Sie forderten mehr Datenschutz und wissenschaftliche Nachweise dafür, dass das Suizidpräventionsprogramm mehr nutzt als schadet. Aus Sicht des Paderborner Philosophen und Informatikers Tobias Matzner wird deutlich, welch intimes Wissen Firmen inzwischen erlangen können. „Dass hier ein hehrer Zweck verfolgt wird, sollte nicht davon ablenken, dass dies eine willkürliche Entscheidung der Firma ist, von der wir weder im Positiven noch im Negativen abhängig sein sollten.“ Laut amerikanischen Medienberichten überprüfe Facebook nicht einmal, ob die Alarme zutreffend waren.
Ziemlich eindeutig äußerte sich die Vorsitzende des Europäischen Ethikrates (EGE), Christiane Woopen: Sie hielt Facebook vor, ohne Einwilligung der Kunden zu handeln und die Privatsphäre zu verletzen. „Das ist ethische nicht vertretbar.“ Auf jeden Fall müsse sich das Unternehmen an die bewährten wissenschaftlichen Standards für Screeningverfahren halten. „Dazu müssen Daten vorliegen, die auch zu veröffentlichen sind“, so die Professorin für Ethik und Theorie der Medizin an der Universität zu Köln.
Die wissenschaftliche Leiterin der Stiftung Datenschutz in Leipzig, Anne Riechert, betonte, bei Informationen zu religiösen oder weltanschaulichen Überzeugungen, Sexualleben und Gesundheit handele es sich um Daten mit besonderer Schutzbedürftigkeit, deren Verarbeitung untersagt sei – gerade dann, wenn durch sie eine Notlage offengelegt werde, die die Betroffenen beschämen könnte.
Matzner verwies auch auf die Fehleranfälligkeit: Das Unternehmen arbeite mit Algorithmen und suche eine Art allgemeines Muster für Suizidgefahr. „Damit können auch diverse Beiträge in den Fokus der Algorithmen geraten, die nichts mit Suizid zu tun haben.“
Ein Fehlalarm könnte äußerst unangenehme Folgen haben: Plötzlich steht die Polizei vor der Haustür. Familie, Freunde und Nachbarn werden verunsichert. Auch Menschen, die mit Suizidgedanken kämpfen, können Angst bekommen, dass ihnen die Mündigkeit genommen wird und sie eingeliefert werden, warnen Experten. Der Algorithmus könnte Betroffene auch davon abhalten, Gefühle, Ängste und Sorgen überhaupt auf der Plattform zu teilen.