In diesem Beitrag geht es um Suizidalität. Hier findest Du Hilfe:

Diese Stellen sind rund um die Uhr für Menschen in suizidalen Krisen und für ihr Umfeld da:

Adressen für Menschen, die jemanden durch Suizid verloren haben

Selbstmord gehört zu den häufigsten Todesursachen. Neue Technologien bieten eine Chance, Anzeichen für suizidales Verhalten schnellstmöglich zu erkennen. Es stellt sich die Frage, inwieweit die Verwendung dieser Technologien ethisch vertretbar sind und welche Auswirkungen sie auf die Privatsphäre haben könnten.

Die weite Verbreitung der sozialen Medien bieten neue Arten von Daten, um das Verhalten von Menschen mit suizidalem Verhalten zu verstehen. Diese Technologien eröffnen eine neue Möglichkeit für präventive Massnahmen. Mit der Technik der ‘natürlichen Sprachverarbeitung und maschinellen Lernens’ können quantifizierbare Signale erkannt werden, um so das Suizidrisiko abzuschätzen. Diese Technologie gibt es derzeit nur für Interventionen bei Personen, die sich für eine Analyse entschieden haben. Falls diese Technik jedoch auch sonst gebraucht werden sollte, stellt sich die Frage der ethischen Verwendung und die Auswirkungen auf die Privatsphäre. Derzeit wird diese Technologie nur genutzt für Interventionen bei Personen, die sich für solch eine Analyse entschieden haben. Gefährdete Menschen schneller zu identifizieren kann eine grosse Chance sein, um die Suizidrate zu senken.

Auch mit dieser Technologie ist eine Einschätzung des individuellen Risikos für suizidales Verhalten nicht einfach. Sogar erfahrene Therapeuten und Therapeutinnen haben teilweise Schwierigkeiten, solch ein Verhalten richtig zu interpretieren. Die Durchführung von Suizid-Screening-Tools basiert auf der Beck’schen Skala für Suizidgedanken. Ein Screening kann die Suizidgefahren verbessern da es in der Lage ist, Risikopersonen zu identifizieren, welche beispielsweise noch keine Therapie in Anspruch nehmen. Daten aus Facebook, Instagram, Twitter und Reddit können so codiert werden, dass sie als Früherkennungsinstrument verwendet werden könnten. Eine Untersuchung privater Daten hat jedoch auch ethische Konsequenzen. Es besteht die Gefahr, dass datenschutzrechtliche Grenzen überschritten werden. In diesem Experiment wurden Daten von Nutzer und Nutzerinnen nach deren Selbstmord von Angehörigen zur Verfügung gestellt. Es wurden nur Daten untersucht, die für Freunde und Familie sichtbar gemacht wurden. Weitere Daten stammen von UserInnen, welche über ihre vergangenen Suizidversuche diskutieren. Gewisse Aussagen, welche gepostet wurden, könnte ein früheres Verhalten erkläre und anderen in ähnlicher Lage Unterstützung bieten. Das Eingreifen im Moment einer Krise ist momentan noch kostspielig und gefährlich und häufig von geringerem Nutzen, als ein Eingreifen Monate oder Jahre vor einem Versuch. Die Sprache und linguistischen Analysen spielen eine grosse Rolle beim Verständnis der psychischen Gesundheit. Die Ergebnisse dieser Studie deuten darauf hin, dass ein Screening-Protokoll mit dieser Art von Technologie in der Lage wäre, einige gefährdete NutzerInnen zu erkennen. Die ethischen Implikationen werfen kulturelle Fragen über Privatsphäre oder Prävention. Es stellt sich schon die Frage, ob eine Person bewusst sich für eine Teilnahme entscheidet oder nicht. Es müssten genügend Informationen gegeben werden, damit man sich dafür oder dagegen entscheiden kann. Sofern die Technologie nur funktioniert, wenn man sich bewusst dafür entschieden hat, werden jedoch viele gefährdete Nutzerinnen und Nutzer nicht erfasst.

In einer Studie wurden bei Reddit-Beiträgen über mentale Gesundheit die Sprache untersucht. Das Ziel bei der Analyse der linguistischen Merkmale in Beiträgen ist die Identifikation von weiteren Posts, die dringende Aufmerksamkeit benötigen. Beispielsweise Einträge, wenn jemand ankündigt Selbstmord zu begehen. Ergebnisse zeigen, dass es sprachliche Besonderheiten gibt, die unterschiedlich je nach Subreddits sind. Die meisten Subreddits über psychische Krankheiten drücken eine negative Stimmung aus. Diese negative Stimmung ist relativ einheitlich bei solchen Beiträgen, es gibt jedoch auch krankheitsspezifische Dinge, welche nur in sozialen Medien verwendet werden. So hat beispielsweise der Subreddit ‘cripplingalcoholism’ das Ziel, die Kommunikation zwischen Menschen mit Alkoholproblemen zu erleichtern. In der Beschreibung des Subreddits steht jedoch nicht die gegenseitige Unterstützung im Fokus, sondern ihre positiven Erfahrungen mit der Krankheit (Gkotsis et al., 2016). Auch Facebook hat mit der Ankündigung eines automatischen Algorithmus zur Suizidprävention für Aufsehen gesorgt. Facebook gibt keine Informationen über das Modell weiter und es gibt auch keine Möglichkeiten für UserInnen, sich von dem Programm abzumelden. Die Abwägung zwischen Recht auf Privatsphäre und den Einsatz lebensrettender Mechanismen als Reaktion auf gewisse Informationen ist kompliziert. Falls man tatsächlich eingreift, sollte die Information über eine Gefährdung präzise sein sowohl auch dass die Möglichkeit überhaupt besteht, wirksam einzugreifen. Weiterhin bestehen datenschutzrechtliche Bedenken, die noch lange nicht geklärt sind (Coppersmith et al., 2018)

 

Quellen:

Coppersmith, G., Leary, R., Crutchley, P., & Fine, A. (2018). Natural language processing of social media as screening for suicide risk. Biomedical Informatics Insights, 10, 117822261879286. https://doi.org/10.1177/1178222618792860 

Gkotsis, G., Oellrich, A., Hubbard, T., Dobson, R., Liakata, M., Velupillai, S., & Dutta, R. (2016). The language of mental health problems in social media. Proceedings of the Third Workshop on Computational Lingusitics and Clinical Psychology. https://doi.org/10.18653/v1/w16-0307 

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Adresse

PHBern
Netzwerk Digitale Transformation
Think Tank Medien und Informatik
CH-3012 Bern

Kontakt

ttim@phbern.ch
+41 31 309 28 95