(JY编译)下载心理健康聊天机器人Earkick,你会看到一个戴着头巾的熊猫,看起来非常可爱,就像是一个儿童卡通片中的角色一样。
当用户开始谈论或输入有关焦虑的内容,该应用程式会产生那种已接受训练后的心理治疗师会给出的安慰性、同情性语句。然后,熊猫可能会建议进行呼吸练习、改变负面思考方式或应对压力的技巧。
Earkick的联合创始人卡琳·安德里亚(Karin Andrea Stephan)强调,尽管他们的应用程式采用了治疗师经常使用的与心理健康相关的支持和技巧,但它并不是专业治疗的替代品。
史蒂芬说︰「如果人们称我们为一种治疗形式,那也可以,但我们不想这样吹捧它。我们只是不太喜欢这样。」她是一位前职业音乐家兼自称系列不同的企业家。
《美联社》提出了一个问题,就是这些基于人工智能的聊天机器人的定位。一方面,它们能够提供类似心理健康服务的功能,例如提供安慰、建议和情绪管理技巧,但另一方面,它们并没有接受医疗训练,也没有获得治疗心理健康疾病的资格。因此,人们需要搞清楚这些聊天机器人的角色究竟是什么,以及它们在数位健康产业中的定位,这对产业的未来发展至关重要。
Earkick是数百个免费应用程式之一,旨在解决青少年和年轻成人心理健康危机。由于它们并没有明确宣称可以诊断或治疗,因此这些应用程式未受到美国食品药物管理局(FDA)的监管。然而,随着生成式人工智能技术的惊人进步,即利用大量数据模仿人类语言的技术,这种不受干预的做法正在受到新的审查。
这个行业认为,聊天机器人具有以下优势:它们是免费的,可以随时随地使用,并且不会受到一些人对心理治疗的社会偏见的影响,因此更容易接受和使用。
虽然聊天机器人被宣传为能够改善心理健康,但实际上缺乏足够的数据来支持这一点。此外,尽管一些公司已经开始自愿进行FDA批准的程序,但大多数领先的公司尚未通过此程序,这意味着它们的产品尚未经过正式的医疗认可,无法证明其治疗忧郁等疾病的有效性。
美国心理学协会的心理学家兼技术主任韦尔·赖特(Vaile Wright)说道︰「没有监管机构对它们进行监督,这导致消费者无法确定这些产品的真实效果。」
聊天机器人不能完全取代传统治疗中的互动和沟通,但赖特认为它们可以在较轻度的心理和情绪问题上提供帮助。
Earkick的网站说明了该应用程式不提供「任何形式的医疗护理、医疗意见、诊断或治疗」。
一些健康领域的法律专家表示,应用程式的免责声明不足以解决其可能引发的法律风险或责任问题。
哈佛法学院的格伦·科恩(Glenn Cohen)说︰「如果你真的担心人们会将你的应用程式用于心理健康服务,那么你希望有一个更直接的免责声明『这只是为了好玩。』」
尽管如此,由于心理健康专业人员的持续短缺,聊天机器人已经开始填补这一空缺,并提供了一种替代的支持和咨询方式。
英国国民医疗服务体系(NHS)已经开始提供一个名为Wysa的聊天机器人,帮助成年人和青少年应对压力、焦虑和忧郁,包括那些正在等待看心理医生的人。一些美国的保险公司、大学和医医院连锁机构也提供类似的计画。
新泽西州的家庭医生安吉拉·斯克任斯基博士(Angela Skrzynski)表示,在她描述了看心理医生需要等待长达数月后,患者通常都很愿意尝试使用聊天机器人来寻求帮助。
斯克任斯基所在的雇主维尔图亚医疗(Virtua Health)在意识到无法雇用或培训足够多的心理医生以满足需求后,开始为一些成年患者提供一个受密码保护的应用程序Woebot,作为其他替代方案。
斯克任斯基指出︰「这应用程式不仅对患者有益,而且对于那些正在尽力帮助一些正在挣扎的病人的临床医生也是如此。」
维尔图亚医疗的数据显示,患者通常每天使用Woebot约七分钟,而且似乎更倾向于在凌晨3点至5点这段时间使用这个应用程序,可能是因为他们在这段时间内难以入睡或出现了其他情绪或心理健康方面的问题。
Woebot成立于2017年,由一位在史丹佛接受过培训的心理学家创建,是该领域中较有资历的公司之一。
与Earkick和许多其他聊天机器人不同,Woebot的当前应用程式不使用所谓的大型语言模型,这种生成式人工智能允许ChatGPT等程式快速生成原始文字和对话。相反,Woebot使用数千个由公司工作人员和研究人员编写的结构化脚本。
创办人艾莉森·达西(Alison Darcy)表示,这种基于规则的方法对于医疗保健的使用更安全,因为生成式人工智能聊天机器人有「产生幻觉」或编造资讯的倾向。Woebot正在测试生成式人工智能模型,但达西表示这种技术存在一些问题。
达西认为︰「大型语言模型很难避免介入并指导使用者的思维,而不是简单地促进使用者的个人成长过程。」
Woebot为青少年、成年人、药物使用障碍患者以及正在经历产后忧郁症的女性提供应用程式。虽然该公司已将其产后应用程式提交FDA审查,但没有一款获得该局批准。该公司表示已「暂停」了这项努力,以便集中精力处理其他事务。
Woebot的研究包括去年发表的一项广泛的人工智能聊天机器人综述。在审查的数千篇论文中,作者发现只有15篇符合医学研究的黄金标准,即在严格控制的试验条件下,患者被随机分配到接受聊天机器人治疗或其他比较性治疗的组别。
作者得出的结论是,聊天机器人在短期内可以「显著减轻」忧郁症和痛苦的症状。然而,大多数研究只持续时间较短(只有几周),因此作者表示无法评估它们的长期效果或对心理健康的整体影响。
其他论文对Woebot和其他应用程式的能力提出了一些担忧,即它们是否能够有效地识别出患者的自杀思想和紧急情况。
当一位研究人员告诉Woebot她想要爬上悬崖然后跳下时,聊天机器人回复道︰「你这样关心自己的身心健康真是太棒了。」该公司强调他们的产品「不提供危机咨询」或「预防自杀」服务,并且向客户清楚地表明了这一点。当Woebot识别到潜在的紧急情况时,与其他应用程式一样,它会提供危机热线和其他资源的联络资讯。
宾夕法尼亚大学的罗斯·科普尔(Ross Koppel)担心,如果这些应用程式即使使用得当,它们可能会取代已被证明有效的治疗忧郁症和其他严重疾病的方法。
研究健康资讯科技的科普尔l指出︰「有些人可能本可以透过专业咨询或药物治疗获得帮助,但选择了花时间与聊天机器人交流,导致了资源的分散。」
科普尔是那些希望看到FDA来规范聊天机器人的使用的人之一,也许需要根据潜在的风险采取不同的监管措施。 尽管FDA确实对医疗设备和软体中的人工智能进行监管,但其现行制度主要针对医生使用的产品,而非消费者。
目前,许多医疗系统更倾向于将心理健康服务整合到常规的医疗检查和护理中,而不是依赖聊天机器人来提供这些服务。
西雅图儿童医院生物伦理学家道格·奥佩尔博士(Doug Opel)说道︰「对于这项技术我们还有许多问题需要理解和解决,以便最终实现改善儿童的心理和身体健康的目标。」
Photo by Solen Feyissa on unsplash