Facebook: Algorithmus warnt bei Selbstmordgefahr

02.03.2017 |  Von  |  Gesellschaft, Neue Medien, News
Facebook: Algorithmus warnt bei Selbstmordgefahr
Täglich auf dem Laufenden mit dem polizei.news Newsletter!

Wenn es darum geht, die eigenen Mitglieder vor einem möglichen Selbstmord abzuhalten, setzt Facebook ab sofort auch auf tatkräftige Unterstützung durch Künstliche Intelligenz (KI). Laut dem sozialen Online-Netzwerk durchforstet der intelligente Algorithmus alle Postings und sogar Live-Video-Streams auf der Seite nach auffälligen Begriffen oder Kommentaren von Freunden, die die Vermutung nahelegen, dass jemand tatsächlich an Suizid denkt.

Vorläufig ist das Tool aber nur in den USA im Einsatz.

„Als Schutzmassnahme zu wenig“

„Es gibt immer wieder Fälle, wo ich von Bekannten kontaktiert werde, weil jemand auf Facebook Anzeichen für einen bevorstehenden Selbstmord entdeckt hat und bei uns anfragt, wie er damit umgehen soll“, so Claudius Stein, Ärztlicher Leiter des Kriseninterventionszentrums Wien, gegenüber pressetext. Das sei ein Problem, mit dem generell alle Social-Media-Portale zu kämpfen haben. „Ein technisches Hilfsmittel einzusetzen, um rechtzeitig eindeutige Warnsignale zu erkennen, ist sicher sinnvoll. Als effektive Schutzmassnahme gegen Suizid ist das aber natürlich zu wenig“, so Stein.

Laut Facebook stellt der Software-Check nur die erste Stufe im eigenen Maßnahmenkatalog dar. Wenn der Algorithmus Anzeichen für eine Selbstmordgefährdung findet, befasst sich ein Mitarbeiter des eigenen Review-Teams genauer mit dem Fall. Erst danach wird versucht, den Betroffenen zu kontaktieren. „Wie am besten vorzugehen ist, hängt immer von der Situation ab. Um das abzuschätzen, müssten die Facebook-Mitarbeiter eine umfassende psychologische Schulung erhalten. Wichtig ist, dass man so schnell wie möglich einschreiten kann, wenn wirklich Gefahr im Verzug ist“, betont der Experte.

14-jähriges Mädchen aus Miami

Dass das Thema Suizidprävention nicht auf die leichte Schulter genommen werden sollte, hat Facebook bereits vor langer Zeit akzeptieren müssen. Immer wieder sind im Laufe der vergangenen Jahre nämlich Fälle bekannt geworden, bei denen Mitglieder der Online-Community ihren Selbstmord über das Portal angekündigt oder teilweise sogar öffentlich inszeniert hatten. Erst im Januar hatte ein 14-jähriges Mädchen aus Miami seinem Leben ein tragisches Ende gesetzt und das Ganze per Live-Video-Stream dokumentiert.

„Unser Ziel ist es, in so einem Fall, den betreffenden Usern schon während der laufenden Übertragung zu helfen und nicht erst zu warten, bis jemand das vollständige Video kontrolliert hat“, zitiert „BBC News“ Facebook Product Manager Vanessa Callison-Burch. Das Vorgehen sei aber prinzipiell sehr heikel. „Einige meinen, wir sollten den Stream in einem derartigen Fall sofort stoppen. Andere Experten haben aber klargemacht, dass das auch nicht sinnvoll ist, weil es uns die Möglichkeit nimmt, die Hände auszustrecken und Hilfe anzubieten“, so Callison-Burch.

 

Quelle: pressetext.com
Artikelbild: Symbolbild © sianstock r – shutterstock.com

Über belmedia Redaktion

belmedia hat als Verlag ein ganzes Portfolio digitaler Publikums- und Fachmagazine aus unterschiedlichsten Themenbereichen aufgebaut und entwickelt es kontinuierlich weiter. Getreu unserem Motto „am Puls der Zeit“ werden unsere Leserinnen und Leser mit den aktuellsten Nachrichten direkt aus unserer Redaktion versorgt. So ist die Leserschaft dank belmedia immer bestens informiert über Trends und aktuelles Geschehen.

Täglich auf dem Laufenden mit dem polizei.news Newsletter!

Ihr Kommentar zu:

Facebook: Algorithmus warnt bei Selbstmordgefahr

Für die Kommentare gilt die Netiquette! Erwünscht sind weder diskriminierende bzw. beleidigende Kommentare noch solche, die zur Platzierung von Werbelinks dienen. Die Agentur belmedia GmbH behält sich vor, Kommentare ggf. nicht zu veröffentlichen.