虽然不可能防止每一次自杀,但有很多事情可以帮助降低风险。而其中一些就像你的智能手机一样近。
卫生系统、科技公司和研究机构正在探索他们如何帮助预防自杀。他们正在寻找利用一般的技术--特别是人工智能(AI)--来捕捉自杀风险的细微迹象,并提醒人类进行干预。
"位于加利福尼亚州帕洛阿尔托的斯坦福大学医学院自杀预防研究实验室的主任和创始人丽贝卡-伯纳特博士说:"技术虽然不是没有挑战,但提供了令人难以置信的机会。
例如,伯纳特说,如果人工智能可以根据健康记录标记出高危病人,他们的初级保健医生就可以更好地准备帮助他们。虽然心理健康护理专业人员在这方面接受过专门的培训,但研究表明,在自杀死亡的人中,大约45%的人在生命的最后一个月看到了他们的初级保健医生。只有20%的人看心理健康专家。
以下是一些正在开发或已经发生的技术进步。
来自你的声音的线索
马萨诸塞州伍斯特市伍斯特理工学院的研究人员正在建立一个基于人工智能的程序,名为EMU(早期心理健康揭秘),从智能手机中挖掘数据,评估手机用户的自杀风险。
这项技术仍在开发中。它可能有潜力成为一个健康应用程序的一部分,你可以下载到你的手机上--也许是在你的医疗保健提供者的建议下。
在你授予所有必要的权限后,该应用程序将部署人工智能,通过手机监测你的自杀风险。在所包含的功能中,可以选择使用所提供的脚本或通过授权该应用程序来记录电话的片段,对该应用程序的语音分析器说话。该应用程序可以检测到声音中的细微特征,这些特征可能表明有抑郁症或自杀的想法。
心理学家埃德温-布德罗(Edwin Boudreaux)博士说:"有一些已知的声音特征,人类无法检测到,但人工智能可以检测到,因为它已经在大型数据集上被训练过了," 。他是UMass Chan医学院急诊医学系的研究副主席。
"它可以把语音和所有这些其他数据源结合起来,对你的情绪是否抑郁以及你是否有自杀念头做出强有力的预测,"布德鲁克斯说,他在制作这个应用程序的公司中没有财务利益。"这就像一个电话活检。"
智能手机的数据,在用户的允许下,可以用来向手机用户本身发送警报。这可以促使他们寻求帮助或审查他们的安全计划。或者,它可以提醒该人的医疗保健提供者。
目前,应用程序不需要政府批准来支持他们的主张,所以如果你使用任何与预防自杀有关的应用程序,请与你的治疗师、精神病医生或医生讨论。
分享专业知识
谷歌致力于为有自杀风险的人提供资源,如国家自杀预防生命线。它还与LGBTQ自杀热线The Trevor Project分享其人工智能专业知识,以帮助该组织识别风险最高的来电者,并让他们更快地得到帮助。
当危机中的人通过短信、聊天或电话联系特雷弗项目时,他们会回答三个接收问题,然后再与危机支持联系。Google.org Fellows,一个由谷歌运营的慈善项目,帮助特雷弗项目使用计算机来识别与最高、最紧迫的风险有关的接收问题答案中的词汇。
当危机中的人们在回答特雷弗项目的接收问题时使用了其中的一些关键词,他们的电话就会被排在前面,以获得支持。
坚韧的文化
你可能已经知道,自杀在军事人员和警察中是一个特别的风险。而你无疑也听说过在大流行期间,卫生保健专业人员的自杀事件。
但是还有一个自杀率很高的领域:建筑业。
根据CDC的数据,建筑工人自杀身亡的可能性是其他行业人员的两倍,自杀身亡的可能性是工伤的5倍。高比例的身体伤害、慢性疼痛、工作不稳定,以及因长途跋涉工作而导致的社会孤立,都可能起到一定作用。
JobSiteCare是一家为建筑工人设计的远程保健公司,正在试行对该行业的自杀作出高科技反应。该公司通过储存在工地医疗拖车储物柜中的平板电脑,向在工地上受伤的建筑工人提供远程医疗护理。它现在正在扩大这种护理,包括心理健康护理和危机应对。
工人可以通过拖车上的平板电脑在几秒钟内获得帮助。他们还可以通过远程医疗获得24/7热线和持续的心理健康护理。
"JobSiteCare的创始人兼首席执行官丹-卡林(Dan Carlin)说:"远程心理健康一直是远程医疗的一个重要成功案例。"在建筑业,你的工作需要你从一个地方到另一个地方,无论你去哪里,远程医疗都会跟着你。"
自杀安全计划应用程序
Jaspr应用程序旨在帮助自杀未遂的人,从他们还在医院的时候开始。它的工作原理是这样的。
医疗保健提供者开始在医院与病人一起使用该应用程序。他们一起想出一个安全计划,以帮助防止未来的自杀企图。安全计划是医疗服务提供者与病人一起制定的文件,以帮助他们处理未来的精神健康危机--以及通常引发他们自杀想法的压力因素。
病人下载Jaspr的家庭伴侣应用程序。他们可以访问他们的安全计划,根据安全计划中列出的偏好处理危机的工具,危机期间的帮助资源,以及自杀未遂或因自杀而失去亲人的真实人物的鼓励视频。
如果人工智能出错了怎么办?
人工智能总是有机会误判谁有自杀的风险。它只有在为其算法提供数据的情况下才会好。
一个 "假阳性 "意味着某人被识别为有风险--但他们并不是。在这种情况下,这将意味着错误地指出某人有自杀的风险。
对于 "假阴性",有风险的人没有被标记出来。
Boudreaux说,在研究人员确定人工智能的作用之前,使用人工智能来识别自杀风险,假阴性和假阳性带来的伤害风险太大。
他指出,Facebook已经使用人工智能来识别可能即将面临自杀风险的用户。
Facebook的母公司Meta没有回应医生关于其使用人工智能识别和解决用户自杀风险的评论请求。
根据其网站,Facebook允许用户报告有关帖子,包括Facebook Live视频,这些帖子可能表明一个人处于自杀相关的危机中。人工智能也会对帖子进行扫描,并在认为适当的时候,让用户报告帖子的选项更加突出。无论用户是否报告帖子,人工智能也可以扫描和标记Facebook帖子和直播视频。脸书工作人员会审查由用户或人工智能标记的帖子和视频,并决定如何处理它们。
他们可能会联系创建帖子的人,建议其向朋友或危机救助热线求助,如国家预防自杀生命线,该热线本月推出了三位数的988号码。用户可以通过Facebook Messenger直接联系危机热线。
在某些情况下,当帖子显示有紧急风险时,Facebook可能会联系潜在危机中的Facebook用户附近的警察局。然后派遣一名警察到用户家中进行健康检查。
社交媒体平台TikTok(其代表也拒绝接受本文采访,但通过电子邮件提供了背景信息)也遵循类似协议。这些措施包括将用户与危机热线联系起来,并向执法部门报告紧急帖子。TikTok还提供热线号码和其他危机资源,以应对平台上与自杀有关的搜索。
对隐私的关注
社交媒体平台与警方联系的可能性已经引起了隐私专家以及像布德鲁克斯这样的心理健康专家的批评。
"这是一个可怕的想法,"他说。"Facebook在用户不知道人工智能在后台运行,以及如果人工智能发现了什么后果的情况下部署了它。派遣警察可能只会使情况恶化,特别是如果你是少数民族。除了令人尴尬或可能造成心理创伤,它还会阻止人们分享,因为当你分享时,坏事就会发生"。
据《法律与生物科学杂志》报道,隐私问题是可能将Facebook帖子发送给执法部门的算法在欧盟被禁止的原因。
Boudreaux解释说,被错误地认定为高风险的人的后果,取决于该组织如何与所谓的高危人群接触。一个可能不需要的卫生保健专业人员的电话可能不会像警察不必要的访问那样造成伤害。
如果你或你认识的人有自杀的想法,你可以联系国家自杀预防生命线。 在美国,从2022年7月16日起,你可以打电话、发短信或聊天988来联系国家自杀预防生命线。 你也可以拨打生命线的原始号码,800-273-8255。 全天候提供英语和西班牙语的帮助。