Koko肯定不是首个将AI用于心理健康的平台。广义上讲,基于机器学习的AI在心理健康领域有以下三个应用。
第一种是用AI分析干预方式,一边治疗一边微调。有两个比较著名的例子是ieso和Lyssn,它们会使用疗程的文字记录训练它们的自然语言处理AI。Lyssn是华盛顿大学的科学家开发的一个程序,它用55个指标分析对话——从治疗师的共情表达到CBT干预方法的使用情况。ieso是英国的一个程序,专门提供基于文字的心理辅导,共计分析了超过50万次疗程,通过追踪结果发现最有效的干预方式。这两个程序本质上都会向数字治疗师告知他们的表现,但最终目的是作为一种实时工具:既充当建议助手,也充当打分裁判。
AI的第二个作用是诊断。一些平台会扫描个人医疗记录,及时发现患者自我伤害或自杀的念头,比如美国退伍军人的REACH VET项目。Torous说,诊断用途可能是AI在心理健康领域最立竿见影的应用,但他也指出,很多新兴平台还有待进一步评估。而有些程序已经难以为继。今年早些时候,MindStrong这个已推出近10年的程序宣布下架,该程序最初想借助AI来发现抑郁症的早期症状,很早便获得了投资者的兴趣,还有知名科学家、美国国家精神卫生研究所的前所长Tom Insel作为创始人。
最后一个可能最接近Colby等CBT先锋最希望设计的东西,也是Koko实验令人感到害怕的东西——用AI指导治疗的全数字治疗师。虽然Koko可能是第一个使用先进的生成式AI技术的平台,能进行完全独创性的对话,但Woebot、Wysa、Tess这些App多年来都在它们的对话机器人“治疗师”中使用机器学习技术。但Torous说,这些平台可能由基于检索的决策树驱动的:本质上就是通过在对话路径中标记,给AI一个执行任务的流程图,让AI可以自行访问一组已有回复。
AI驱动的对话机器人“治疗师”还需要更可靠的数据支持。Koko通过推特宣布但尚未发表的最新实验结果,并未提供有助于解读其结果的指标。该试验对这类方法的有效性只能提供很少的证据。不过,该试验确实指出了道德问题。而显然,很多这些问题不是AI所独有的。
一个问题是透明度。传统的面对面治疗和自动化治疗都在患者留存方面有既得利益。这类程序的患者留存率中位数在2周内会下降至4%以下[6],因此数字化治疗平台的上升空间还很大。鼓励患者留存牵涉了复杂的道德问题,当热门的移动治疗平台TalkSpace要求治疗师在与客户的对话中加入宣传其视频对话功能的广告时,招来了一片骂声。通过编程让AI治疗师“拉拢”患者的道德问题更加模糊,尤其是当机器人可以从与其他客户的相处中学会这些经验。
而个人隐私则是所有心理治疗的一个最主要前提。但在3月初,心理咨询程序BetterHelp就因为被指与广告商分享敏感的用户信息,被美国联邦贸易委员会罚款780万美元。无独有偶,3月下旬,心理健康初创公司Cerebral宣布,它已经向谷歌、Meta、抖音等第三方平台泄露了310万人的数据。
越来越多的心理咨询平台都将机器学习作为底层技术,这就要求设计师使用更多的敏感数据来训练他们的AI。火狐浏览器的持有者——Mozilla基金会的分析发现,近70%的心理健康和祷告应用程序都没有完善的隐私政策,有些甚至标记着“不包含隐私条款”(见go.nature.com/3kqamow)。由此可见,保持警惕显然是必要的。
整体而言,数字化心理治疗软件的发展得益于缺乏清晰的标准。虽然让市面上所有自称“陪伴”或“教练”的心理App遵循传统心理治疗师所遵循的标准不太现实,但Insel不久前呼吁成立一个新机构来监管这些心理咨询数字工具。该行业目前主要依赖美国精神医学会等精神病学组织所提议的非系统标准,以及One Mind PsyberGuide等非营利机构的用户指南。
即使是采用循证疗法的App,也有人担心随着更多的平台开始转向AI技术,CBT可能会进一步成为首选的心理干预方式。Zeavin和她之前的所有人一样,认为心理治疗的自动化是在迈向大众化,可以惠及更多人。但这也会带来问题。理想情况下,个人有权力接受最正确和最有效的诊断和治疗。但自动化会带来几十年前Weizenbaum所面临的困境:在最佳疗法和最容易实现数字化的方法之间进行取舍。
虽然AI在提高心理咨询可及性方面潜力巨大,但它在实际治疗中的应用仍处于摸索阶段,而且不乏道德困境。GPT-3还没有智能到能直接提供答案的地步,这就和Kokobot的警告一样:“我只是个机器人。”