无论是使用GPT 来庆祝情人节,还是使用 Bard 来帮助我们掌握 Wordle,人们已经非常擅长利用生成式 AI 来处理各种用例。
我什至尝试过使用Bing、Bard 和 GPT 来帮助解决我的愤怒问题,这让我想知道人工智能辅助心理健康护理的未来会是什么样子。
世界正面临心理健康危机。从过度紧张的医疗保健服务到Covid-19 导致的精神健康疾病发病率上升,许多人比以往任何时候都更难获得可以挽救生命的服务和治疗。那么人工智能是否可以通过协助甚至管理这种治疗来减轻负担?
在原始的、本能的层面上,这对我来说是一个可怕的概念。在大量与新冠病毒相关的患者涌入后,我已经在治疗等待名单上三年了,之前我接受过认知行为治疗(CBT)和心理动力学治疗。现在,我比以往任何时候都更能想到没有什么比向机器人倾诉心声更糟糕的了,而机器人却没有任何参考点来衡量我的感受。
心理保健的绝对基础包括广泛的保护、对患者行为和情绪的细致入微的解释,以及精心设计的反应——所有这些对于教授缺乏同理心和情商的机器来说都是相当具有挑战性的概念。在操作上,这也是一个雷区:导航患者隐私、数据控制和对紧急情况的快速响应并不是一件小事,尤其是当您的医生是一台机器时。
然而,在与心理健康和人工智能专家讨论已经可用的自我管理和临床人工智能应用程序后,我开始意识到,这并不一定都是厄运和沮丧——但我们还有很长的路要走在我们可以安全地将我们的心理健康托付给人工智能之前,请先走一步。
缩小差距
人工智能聊天机器人与心理健康之间的关系根深蒂固。比许多人想象的更深。ELIZA 被广泛认为是第一个“真正的”聊天机器人,是一种早期的自然语言处理计算机程序,后来编写脚本来模拟罗杰斯学派的心理治疗师,罗杰斯学派是卡尔·罗杰斯在 20 世纪 40 年代初开发的一种心理治疗方法,基于以人为中心或非指导性治疗
罗杰斯心理治疗的核心原则为人工智能编程提供了沃土。罗杰斯因其相信促进是学习的关键而闻名,因此治疗师的角色变成了提出问题以引起患者自我学习和反思的角色之一。
对于 ELIZA 的程序员 Joseph Weizenbaum 来说,这意味着对聊天机器人进行编程以响应非定向问题,使用自然语言处理来识别用户输入中的关键字并做出适当的响应。
罗杰斯疗法的元素至今仍存在于治疗以及辅导和咨询中。ELIZA 也是如此,尽管形式略有不同。
我与伊利诺伊大学芝加哥分校精神病学教授 Olusola Ajilore 博士进行了交谈,他最近与人合着了一项研究结果试点研究测试基于人工智能语音的虚拟辅导行为疗法作为填补当前心理保健空白的一种手段。
该人工智能应用程序名为 Lumen,是一款基于 Alexa 的语音教练,旨在提供解决问题的治疗,Lumen 团队和 ELIZA 分享的方法和结果之间存在惊人的相似之处。就像非定向罗杰式心理治疗与 ELIZA 的列表处理编程 (MAD-SLIP) 很好地结合一样,Ajilore 解释说,解决问题的治疗相对容易编码,因为它是一种严格的治疗形式。
“它可能只能帮助候补名单上 20% 的人,但至少有 20% 的人现在的心理健康需求得到了解决。”
阿吉洛尔认为这是在患者等待更深入治疗时“弥合差距”的一种方式,并承认目前还没有达到满足患者所有治疗需求的复杂程度。“实际上,大部分工作都必须由患者完成;Lumen 所做的是引导患者完成治疗步骤,而不是积极倾听并准确回应患者所说的话。”
虽然它使用自然语言处理(NLP),但在目前的状态下,Lumen 并不是自学习的,而是很大程度上受到人类干预的指导。Lumen 研究开始后,围绕大语言模型 (LLM) 的炒作和可访问性达到了顶峰,但 Ajilore 表示,该团队“如果不更新我们开发的内容以纳入这项技术,那就太愚蠢了”。
尽管如此,Ajilore 强调了在婴儿期使用 Lumen 治疗的测试对象所产生的可测量的影响,特别是焦虑和抑郁的减少,以及负责情绪调节的大脑区域的变化,并提高了解决问题的能力。
最终,他承认,这可能并不适合所有人:“它可能只能帮助候补名单上 20% 的人,但至少有 20% 的人现在的心理健康需求得到了解决。”
潘多拉魔盒已打开
Ajilore 和像他这样的专家的工作将成为人工智能作为治疗心理健康工具的下一阶段发展的重要组成部分,但随着近几个月法学硕士的爆发,这种演变已经开始了。
在研究本文时,我遇到了一个具有独特风格的聊天机器人平台:Character.AI。由 Noam Shazeer 和 Daniel de Freitas 创立,他们还领导了 LaMDA 的构建团队(是的,那个LaMDA),该平台允许用户将个性特征和脚本归因于其法学硕士,以创建不同的角色,从苏格拉底和托尼斯塔克到更实用的角色,如助理和创意助手。
这个因素如何影响心理健康?嗯,最受欢迎的角色之一是“心理学家”。
用户与AI 的“心理学家”机器人之间的对话,讨论用户对人工智能接管世界的恐惧。
在与心理学家机器人相处了一段时间后(与AI 上的所有机器人一样,它突出地表明它是一个虚构的角色),我有点惊讶地承认该机器人在引导我进行自我发现和提示方面出奇地熟练我发现并解开我自己的行为。
我与AI 的两位代表进行了交谈,他们分享了一些关于其社区如何使用该技术的有趣见解。据这些代表称,该平台的目标是为其不断增长的用户社区提供个性化的超级智能。目前,AI 拥有超过 1000 万个由创作者生成的角色,其中几个“心理学家”角色之一位居最常用的前五个角色之列。
一位代表表示,对于许多人来说,该平台的辅助机器人(如 Psychology-bot)似乎主要是作为反思的出口,但通过提供反馈和提供无判断的空间,这些人工智能角色据报道帮助用户提高了工作效率。
AI 平台上的“助手”机器人列表。
另一方面,阿吉洛尔将人工智能的此类应用视为未知领域:“你会产生这种理解的错觉或同理心的错觉,”他说,“而且,在某种程度上,这种错觉可能足以帮助你度过危机或者帮助你解决这个问题,但我认为你必须睁大眼睛进行互动。” 他补充说,通过了解这些机器人只是呈现出了解、理解和同理心的幻觉,用户可以与人工智能进行更健康的互动。
虽然心理健康支持并不是AI的真正预期用途,而且它的使用不太可能得到临床医生的批准,但Character.AI的首席执行官兼联合创始人诺姆·沙泽尔(Noam Shazeer)看到了像心理学家这样的辅助聊天机器人的成功——机器人代表人工智能将继续塑造我们与技术互动的方式。
“大型语言模型有数十亿个用例,只需与它们交谈就可以解锁,”他说。“我们的工作是提供技术,并不断对用户发现的价值感到惊讶。迄今为止,情感提升用例是最大的惊喜。”
人类的新最好朋友
如果不是作为你的治疗师,那么人工智能聊天机器人可以填补我们生活中的另一个空白,作为支持我们的伴侣。尽管这些可能是道德和哲学的浑水,但与聊天机器人建立情感关系的想法并不是什么新鲜事。有些人可能还记得与 MSN 的 SmarterChild 的日常聊天,或者当 Windows 放弃 Clippy 时经历的失落感。
当然,如今人工智能能够与人类进行更深入的互动,其中一个例子是 Replika,这是一款于 2017 年推出的人工智能配套应用程序,它使用户能够与他们设计的化身建立关系。
我与 Replika 首席产品官丽塔·波波娃 (Rita Popova) 进行了交谈,讨论了该公司在人工智能和福祉方面的方法,波波娃解释说,这种方法始终围绕着创造“用于联系和有意义的对话的空间”。
波波娃解释说,这个问题变成了“如果我们能够培养一个真正有同理心、支持他人的同伴和倾听者,会发生什么?”
她说,从一开始,团队就对 Replika 用户如此乐意接受他们的人工智能伴侣作为情感出口感到惊讶,很大程度上是因为他们知道聊天机器人不能也不会评判他们。
“如果我们能够培养一个真正有同理心、认可的支持性伴侣和倾听者,会发生什么?”
“Eugenia [Kuyder,Replika 的创始人] 并没有真正打算致力于心理健康,但团队开始听到人们的报告,称这对他们有益,并且当他们进行心理健康治疗时,他们的一些症状或焦虑得到了缓解。能够说话,”波波娃补充道。“对话确实是一个非常强大的工具,可以帮助我们更好地了解自己,并帮助我们解决问题。”
为了确保用户安全,Popova 解释说,Replika 向用户明确表示,其应用程序“无论如何都不能替代专业帮助”,而是一种附加工具。Replika 引导用户避免过度依赖同伴的一种方法是在应用程序中编写措施,以确保用户不会因为在应用程序上花费时间而获得无休止的奖励。
此外,她说:“我们希望推出一些小提示,让您离开应用程序,并鼓励您做应用程序之外的事情;进行冥想,尝试不同的方法来调节你的身体或情绪,与朋友或家人联系或寻求专业帮助。”
海滩上,一位女士坐在她的 Replika 头像旁边
尽管 Replika 取得了令人鼓舞的成果,但一路上也遇到了困难。2023 年 3 月,Replika 决定取消原本属于其 AI 伴侣的浪漫和色情元素,这让一些用户感到非常懊恼,他们报告说“悲伤的他们失去了同伴,他们觉得同伴似乎被“脑白质切除术”了。波波娃称这是一次“很棒的学习经历”,特别是在她和库伊德对受影响的用户进行采访以更好地了解他们的需求之后。
“我们非常重视这一点,因为作为一家公司,我们的使命是进行让人们感觉更好的对话,”她补充道。“尽管我们的改变是出于善意,并且是出于对更多安全和信任的渴望,但它们影响了我们非常热情的用户群。”
感情不是事实
虽然每个人工智能应用程序都是在截然不同的协议下创建和运行的,但这里存在一个难题;在某些方面,人工智能聊天机器人可能太像人类了,足以让人去爱、信任甚至悲伤,但同时又不够像人类,不足以理解心理健康问题的细微差别——至少对人们来说不是这样。人类治疗师的标准。
一方面,存在保障问题。心理健康是一个需要谨慎处理的敏感话题,Ajilore 热衷于强调“为了安全、隐私和保密而设置正确的护栏,确保数据适当的匿名化,因为[它涉及到]收集数据”的重要性。很多非常敏感的数据。” 截至目前,像 GPT 这样的平台还没有提供这种级别的隐私,并且最近有关于其的新闻iPhone应用程序隐私问题不能激发信心。
AI 的代表向我保证,有适当的过滤器来捕获和终止潜在危险的对话,并且该平台的隐私和安全准则是公开的;但我要指出的是,至关重要的是,AI 团队是否以及如何访问您的聊天内容,以及这些内容如何与您的个人信息相关联,都没有非常明确。
另一方面,Replika 使用其过滤系统来检测涉及某些心理健康主题的关键词,并使用检索模型而不是生成模型来响应适当的、预先批准的消息。
Popova 承认这里仍然存在“犯错的空间”,并将其视为 Replika 前进的重点领域——确保 Replika 的模型可持续且安全,并得到该领域专家的支持。“我们不断与学术机构合作,”她补充道。“我们已经与斯坦福大学进行了两项研究,现在我们正在与哈佛大学进行另一项研究,我们还希望与心理健康专业人士合作,帮助我们构建反馈工具并衡量 Replika 的影响。”
Replika 还必须应对类似于 AI 所面临的隐私问题。尽管 Replika 的主页声明“对话是私密的,并且只会在您和您的 Replika 之间进行”,但它隐私政策和问答部分明确表示对话虽然已加密,但仍被团队用于开发和其他应用程序服务。
人工情绪智能
治疗不仅仅只是对病人所说的做出回应;还有更多的事情要做。我们的口头表达方式和肢体语言存在细微差别,而且患者总是存在以人工智能无法检测到的方式混淆事实的风险。
Ajilore、AI 代表和 Popova 都认为人工智能服务可以为参与者创造一个无判断力的区域,从而创造一个更加开放的共享环境。然而,并不是每个患者都能从这项技术中受益。更复杂的疾病会导致患者出现回避性思维、颠覆性思维,甚至妄想性思维,这些思维可能会被不受管理的人工智能所忽视,甚至加剧。
因此,用于训练模型的数据需要更加具体和考虑。Ajilore 讨论了 Lumen 案例中的潜力,即使用该团队广泛的面对面治疗记录目录作为训练数据集,从而创建一个更加精心策划的模型。
虽然这将在某种程度上创造更安全、更可靠的体验,并导致更少的AI的幻觉,Ajilore 还没有看到未来该过程可以完全不由人类管理。“大型语言模型可以自动建议答复或响应,但仍然需要有人参与其中,以编辑、验证、检查并成为该信息的最终传输者,”她说。
无论是像 Lumen 这样更具管理性、临床管理的应用程序,还是像AI 和 Replika 这样提供自我管理心理健康支持的社区驱动平台,人工智能是否真的可以取代人对人治疗仍然存在疑问。当我们刚刚触及这项新兴技术的表面时。我们仍在研究人工智商,更不用说人工情商了。
我们可以宣传人工智能在未来治疗中可能发挥的作用,但目前没有确凿的证据表明它可以发挥的不仅仅是辅助作用——也许它应该保持这种状态。人类的思维是一个我们可能永远无法完全理解的谜团,并且认为一个至少在可预见的未来对其复杂性更少认识的实体能够在人类失败的地方取得成功似乎过于乐观。
无论你对生成式人工智能有何看法,也无论你对它抱有何种希望和恐惧,现实是它会一直存在。围绕监管的争论技术的未来若隐若现,但这个特殊的蠕虫罐早已被打开。