|
智能心理治疗的伦理隐忧及可能出路[①]
孙丹阳 2、李侠
(1、西安电子科技大学马克思主义学院;2、上海交通大学科学史与科学文化研究院)
摘要:智能心理治疗是依托聊天机器人模式独立进行心理诊疗的智能系统,具有便捷、高效、价格低廉、可获得性的优势。同时,因为其服务对象的特殊性,在隐私保护、数据安全、数据偏见、机器幻觉等技术性困境上具有放大效应。加之,因过度依赖损伤自我效能、结构化模型难以实现真正的个性化治疗、主体性难题造成的情感欺诈与法律隐患并不利于心理治疗目标的实现。因此,多主体共治的伦理防治路径是必要的。开发者提升训练数据质量、开发共情模型、创设智能咨询理论来优化智能心理治疗设计;使用者增强心理健康知识与数智素养,监管者要加强对智能心理产品的测评、准入与法律监管。
关键词:心理治疗;人工智能;cCBT;伦理;
【中图分类号】N031 【文献标示码】A
智能心理治疗作为“AI+心理健康”的一个重要应用领域,近年来引发越来越多的关注。面对产业、研究者与公众的推崇与期待,其可能的伦理风险更加不能忽视。既包括隐私暴露、数据偏见和数据“幻觉”等当前智能技术遭遇的具有共性的技术性困境,又有对智能心理治疗优于传统心理治疗的特殊偏见,对于心理治疗目标而言这种执着并非绝对利好。本文通过对智能心理治疗运行机制的分析,揭示智能心理治疗存在的潜在伦理风险,并从开发者、使用者与监管者三个维度探讨智能心理治疗的多主体共治的伦理防治路径。
一、智能心理治疗——你的专属心理医生
(一)智能心理治疗的现状与发展
智能心理治疗是依托人工智能技术的崛起,为应对心理健康这一社会性难题而开发的智能应用产品,依托虚拟对话代理、聊天机器人模式运行,当前多以心理咨询 App、小程序,虚拟与实体心理咨询机器人这几种应用形态存在。智能心理治疗遵循心理治疗的普遍目标,既通过心理治疗的理论与技术,缓解患者的临床症状,帮助患者重获心理健康状态,走向正常生活。智能心理治疗与智能化、数字化心理监测、评估、辅助诊疗等数字心理治疗工具不同,它是能够独立工作的自动化、智能化系统,是人工智能技术应用于心理健康领域的“高阶”形式,在运行过程中,能够完全脱离人类治疗师参与而独立行使心理治疗职能。
聊天机器人的概念范围较广,既包括数字化助手、人机交互程序,也指代人工智能对话实体、智能机器人。针对聊天机器人的研究表明:大多数时候,用户觉得聊天机器人是友好的情感伙伴,而不仅仅是获取信息的助手。[②]而随着聊天机器人技术的进步,其拟人化水平日益提升,互动方式更符合人类社交模式,其情感伙伴的价值也更为凸显。这使得依托聊天机器人模式进行心理健康服务具有先天优势。
20世纪60年代开发的自然语言处理程序Eliza是最早的聊天机器人之一,它就被设计成罗杰斯式的心理治疗师,可视作最早的人工智能心理治疗程序,也可以说,聊天机器人在设计之初,就被赋予了心灵疗愈的功能。由于智能技术水平的局限,Eliza并不具有文本理解的能力,而是通过不断对来访者本人的陈述进行反馈实现交流。其目的是通过对来访者个人表述进行认同,以达到心理治疗中的共情效应。共情在心理治疗的过程中十分重要,“它不但是一种治疗技术,而且是进入来访者内心世界、协助来访者达到自我改变的治疗关键。”[③]正因如此,来访者在与Eliza互动的过程中,感受到了一种同理心和被理解的感觉,情感纽带由此建立。这构成聊天机器人必备的功能之一,即为用户提供情感疗愈。Eliza的开发者Weizenbaum认为使用者认为机器具有情感功能是一种相当危险的错觉。[④]这一现象也被称为伊丽莎效应(Eliza Effect)。
随着人工智能技术的进步,智能心理治疗不断向专业化发展。先后涌现了如能够模拟情感和心理联系的Replika、基于认知行为疗法为用户提供心理健康援助的Woebot、可以指导用户在心理健康应用程序上进行练习的Wysa and Tess;以及专为治疗抑郁症设计的Deprexis,其已实现多语言版本,并应用于德国医疗保健系统。我国的智能心理治疗系统出现较晚,但是发展相当迅速,被产业界判断为人工智能应用于医疗领域的“下一个风口”。目前像西湖大学开发的“心聆”小程序,科大讯飞在2023年10月公布的“AI心理伙伴”,都具有一定的受众与用户粘性,成为这一领域的代表。
(二)智能心理治疗的理论基础、技术依托与运行机制
智能心理治疗在心理治疗理论上采用了认知行为疗法( Cognitive Behavioural therapy,CBT)的基本原则和治疗策略,在智能化改造的基础上形成了计算机化认知行为治疗( Computerised cognitive Behavioural therapy,cCBT)或基于网络的认知行为治疗(Internet-based cognitive behaviour therapy,ICBT)。认知行为疗法是心理治疗的三大流派之一,因其疗程短、见效快,在传统心理治疗领域中使用率较高。与心理动力治疗(精神分析)、人本主义治疗相比,认知行为治疗更强调对症状的觉察与修正,也正是“随着认知行为疗法的出现,心理障碍治疗目标和结果的衡量都更加强调症状维度。”[⑤]认知行为治疗遵循以下核心假设:“1.认知活动影响行为;2.认知活动可以被检测和改变;3.认知改变可以产生预期的行为改变。”[⑥]当前的智能心理治疗系统的信息输入以语言(文字、语音)输入为主,而语言是认知的主要表征形式。与潜意识内容难以进行数字化表征不同,症状信息利于转化为标准化的数据模型,利于智能系统的训练与学习,以实现智能心理治疗系统的运行。认知行为疗法的目标在于认知重塑,“认知重塑是用积极的、符合现实的认知替代那些消极的、与现实不符的认知,是认知治疗最为重要的方面。”[⑦]通过语言探知来访者的认知状况,经由对话的方式对不合理的认知进行“识别-辩驳-修正”,以实现“认知重塑”的治疗目标。有观点认为,ChatGPT也具有支持认知行为疗法的功能,通过模拟对话,帮助应用者识别其潜在的、歪曲的认知模式,进而影响他们的感知与行为。[⑧]
智能心理治疗系统本质上属于嵌入心理治疗目标的虚拟对话代理或聊天机器人,在技术层面倚赖自然语言处理(NLP)与情感分析。NLP是一种用于构建可以解释原始人类语言数据的计算模型技术,NLP技术依赖于机器学习,包括自然语言理解,文本理解与自然语言生成。[⑨]基于NLP,聊天机器能够充分的理解、分析来访者输入的语言内容并进行实时反馈。随着机器学习技术与大语言模型的发展,智能心理治疗系统的数据质量和学习效率将大幅提升,诊疗对话的流畅性与精准性也将增强。生成式人工智能则将更好满足来访者独特的治疗需求,更好实现个性化治疗目标。
情感分析是人工智能的一个子集,用于测量、理解和响应人类情感的语言表达。情感分析方法的目的是确定关于某个主题或整体语境极性所表达的态度,后续发展以处理主观文本数据为主。[⑩]该技术侧重对文本内容中的语气、语言模式和可能出现的表情符号进行分析,受心理健康问题困扰的个体,他们的语言模式和表情不可避免的会透露出悲伤或抑郁的迹象,揭示这些内容背后隐含的情绪与情感内容,有利于对来访者心理问题的识别与治疗。
NLP和情感分析的结合使智能科学家建立了能够从书面文本中理解人类情感的模型。[11]智能心理治疗正是利用自然语言处理与情感分析技术,通过对来访者输入的语言信息进行处理,进而对来访者可能的心理问题进行识别,并进行个性化治疗。一是通过语言处理,识别患者的自主陈述,判断患者的认知水平,包括是否存在歪曲认知、歪曲认知的具体指向;二是经由情感分析,识别患者的情绪、情感状态。依据概念化的数据库,对来访者的心理问题进行归类,通过语言交互模式,给予来访者情感支撑与认知修正指导,达到缓解情绪状态和重塑认知的目标。在一些智能心理治疗系统中,嵌入了能够促进来访者自助的方法,比如提供心理教育资源、布置“家庭作业”等,甚至有些能够识别紧急情况,对自杀倾向进行危机干预。
(三)智能心理治疗的效用与优势
智能心理治疗的有效性被广泛证实,与那些没有使用智能心理治疗干预的人相比,坚持使用智能心理治疗,个体的心理健康和压力感知得到显著改善;[12]对抑郁症包括原发性重型抑郁症具有临床效用;[13]治疗师支持的基于互联网的认知行为疗法与面对面治疗的效果相似;[14]智能心理治疗联合传统心理治疗、药物治疗等治疗方案的优势也得到研究证实。
智能心理治疗的发展既受人工智能技术革新的驱动,也因传统心理治疗弊端难以规避而为其提供了发展空间,同时,全球性心理问题的持续高发也为这一技术的快速扩张供了现实需求。与传统心理治疗对比,智能心理治疗具有便捷、高效、价格低廉、可获得性高等特点。
首先,智能心理治疗系统极大的扩大了心理健康服务的供给。当前,随着心理问题高发,国内外在心理治疗领域均存在严重的医患比例失衡的问题,在国内,这一问题尤为突出。智能系统具有治疗的时空优势,可以不间断地工作,特别是在那些医疗资源匮乏的偏远地区以及心理问题的高发时段,比如深夜,都能做到随叫随到,及时反馈,有效弥补心理健康资源供给不足的困境。同时,与传统心理治疗相比,具有较高成本-价格优势,能够大大提升患者获得心理治疗支持的比例。随着网络信息技术的普及,数字化智能化的医疗服务的可获得性优势将进一步凸显。其次,避免医疗资源挤兑。心理健康问题有很多层次,比如心理健康保健、一般心理问题、心理障碍等都被纳入到心理疾病诊疗范畴。智能心理治疗可以作为初级诊疗方案,以缓解对现实心理医疗资源的“浪费”,保障更需要帮助的个体获得实体医疗服务。英国国家卫生与临床优化研究所(NICE)建议将cCBT作为抑郁症的初级保健的一部分,为抑郁症患者提供初始的低强度治疗。[15]再次,规避人为要素与非固定因素。心理咨询师与治疗师是经过严格培训与准入的职业,但是作为人类,其个人的身体状态、情绪状态、生活经历、信念系统都会成为治疗过程的不确定因素,加之,心理咨询师行业目前鱼龙混杂、水平参差不齐,极大地影响治疗效果;而智能系统可以更好的保持高质量与稳定状态,避免人为因素,结构化、标准化水平更高。
同时,研究表明,公众在罹患心理问题时通常会感到尴尬与耻辱,不愿意将这一信息暴露于现实世界,这就造成了与人类交谈相比,患者更愿意与机器进行交谈。[16]即便心理疾病高发,但是患者的病耻感与心理疾病污名化现象依旧严重,因此,聊天机器人提供的虚拟治疗不仅可以改善心理健康治疗的机会,而且对那些不愿与治疗师交谈的人来说具有更大价值。智能心理治疗的优势契合了当下心理问题高发、公众对心理健康关注度提高、传统心理治疗服务可获得性有限、心理咨询行业相对混乱的现状,因此具有广泛的客观应用前景。
二、智能心理治疗的潜在伦理风险
智能心理治疗符合智能社会发展的未来方向,但是,当前智能心理治疗的应用尚不成熟,不仅智能技术本身的伦理困境难以化解,在心理治疗这一特殊应用领域,也存在特定的潜在风险。
(一)技术性困境
智能心理治疗技术不仅难以规避当前由智能技术引发的技术性风险,在隐私保护、数据偏见、机器“幻觉”等技术性伦理风险上还可能存在放大效应。
第一,隐私保护与数据安全
信息时代的隐私问题可谓老生常谈,数据是智能系统运行的基础,智能心理治疗依据现有数据进行训练,当前在开发NLP模型所使用的训练数据中,都会进行一定的数据匿名化与敏感信息处理,包括姓名、年龄、职业等涉及个人隐私保护的内容。然而,心理治疗数据涉及的隐私性更为复杂,如个人的疾病体验、感受、治疗经历都具有私密性,并且个人经历、社会关系等信息与心理问题诱发具有相关性,如果在训练数据中进行严格的数据匿名化与敏感信息处理必然会影响数据质量,进而影响模型的训练效果,最终影响智能心理治疗的功用。
与面对面的治疗过程不同,智能心理治疗中产生的大量治疗数据存贮于智能应用,这有利于来访者可以随时回顾与治疗者的对话,帮助来访者对治疗过程进行反思,提升治疗效果。但是这些数据被服务提供商所有,必然带来了数据存储的安全性问题。来访者自然可以在自己的应用终端中随意删除这些信息,但是这并不代表这些涉及其隐私的信息被彻底销毁,应用者是否有权力要求个人的访问数据以及治疗数据被销毁,如何保障这种权力的实现暂无定论。由于智能机与供应商原因,服务器终止,这些数据又将如何处理?如果让本就有心理健康问题的个体,为自己个人隐私的泄漏而惴惴不安,很显然,这将造成新的心理健康隐患。
第二、社会偏见因数据而放大扩散
当数据集不够全面或不能代表目标群体时,无意的偏见可能会出现;一些人工智能应用已经因制造偏见与歧视而受到严厉批评。在人工智能与机器学习中,这种偏见来自于预训练数据,来自于现实社会的固有信息。研究表明,社会文化中的偏见会传播到广泛使用的人工智能技术中。[17]智能心理治疗模型无意中维持了心理健康诊断和治疗领域普遍存在的社会不平等与偏见。而在生成式人工智能中,这种偏见形成了双向流动,越是被提及的信息越被识别、加工、学习,形成系统的数据基础,而不被提及的信息则形成信息空白,智能系统因社会文化偏见的塑造,进一步形成了数据歧视,加剧偏见与不公正的扩散。
然而,偏见和主观性是机器学习技术本身不可避免的,因此不能简单地消除,需要机器学习研究人员和实践者持续的在主观现实中发现对立面和不断对客观性进行反思来降低。[18]可是,这又何尝不是诉诸了一种主观性的解决方案。在治疗过程中,偏见将引发认知暴力,产生“证词压制”(testimonial smothering)现象。即在语言交流中,听者由于恶性无知(对某种知识领域缺乏敏感度或判断力)未能满足说话者的易感性,因而导致说话者保持沉默,拒绝交流。[19]来访者因为感受到自己不断被放置在一个劣势地位而产生治疗排斥,通过保持沉默、隐藏自己经验的方式做出回应,这将严重破坏治疗关系,影响治疗进程,甚至导致来访者流失,造成治疗中止。特定心理障碍患者,如抑郁症患者将因为对偏见的觉察,产生更为严重的痛苦体验。因此,有观点认为:“人工智能在心理治疗中使用的算法可能会为认知不公创造完美的风暴。”[20]
第三、机器“幻觉”(算法偏差)导致不当诊疗
智能心理治疗作为一种算法驱动的系统,所能提供的量化数据或所谓的事实信息是有限的。[21]特别是将数据信息进行概念化分类处理之后,很可能忽视数据不足的群体,那些新出现的症状和疾病类别,则可能完全因为概念的缺失而进行错误诊断,甚至直接被忽视,这不仅影响来访者的治疗体验和效果,同时,也不利于对心理疾病的识别和心理治疗自身发展。对于生成式人工智能技术,这种风险更为突出,诚然,大语言模型具有非凡的会话技巧,甚至会产生类似人类交流的反应,并能很好的参与互动对话,经常产生让人信服的陈述,但是使用者往往难以判断这些陈述的真实性。在心理治疗过程中,来访者无法确认智能系统提供的诊疗判断与临床信息的可靠性与一致性,如果其反馈的内容具有可证实的错误或不适当的回应,而来访者信以为真,诊疗不当将不可避免。
智能心理治疗基于个体的表达来做判断,但是,个体的表达能力是存在巨大差异的,即便相同的事情,不同表达者的描述看起来有可能完全不同,这与描述者不同的年龄、受教育水平,性别以及人生经验的差异有关。比如,男性与女性在表述相同的情绪感知强度上存在明显的表达差异,这将限制NLP模型对相关信息的检测与识别。[22]并且,深受心理问题困扰的个体,并非总是能清晰的表述自己的问题所在,这就要求在心理治疗中,治疗师要根据经验、移情和直觉对患者的问题进行觉察和理解,并用技术手段引导患者对自己的问题进行觉知,这对于智能治疗系统而言是非常大的挑战。
更为重要的问题还在于语言与思想间的关系到底如何?[23]如何处理心理问题的不可言说性。弗洛伊德的精神分析理论强调潜意识的作用,这一观点在心理治疗中被广泛承认,即便认知行为治疗强调症状的改善,为避免复发,探查诱发心理问题的原因是十分必要的。诚如荣格对于精神分析的层次所做的划分:“倾述表白(confession)、解释(explanation)、教育(education)、相互改变(transformation)”[24]这四个阶段对于智能心理治疗而言都是非常困难的,尤其是对于潜意识内容,个体自己难以识别,更难以用语言进行表征,因此自然语言系统对潜意识内容的处理会存在巨大障碍,导致智能心理治疗难以深入到来访者的潜意识领域,探查诱发心理问题的深层次原因,造成治疗的不彻底。
(二)基于心理治疗目标的潜在风险
第一,过度依赖不利于实现来访者自我成长
心理治疗的频次越高越好吗?传统心理治疗中的面对面访谈的频次通常在一周1-2次,这不仅是考虑治疗费用的负担情况,也是为保证来访者的原有现实生活的连续性,并且给予时间充分消化、执行治疗中约定的内容。智能心理治疗以其成本低廉及即时反馈的可获得性作为重要优势,随时随地、高频次的咨询真的更有利于达成治疗目标吗?事实并非如此,并且这极易产生患者对智能治疗系统在认知与情感上的双重依赖。像Deprexis在德国医疗保健系统中使用时,就对来访者的使用频次进行了说明,即建议用户每周完成1-2次,每次约30分钟。心理治疗目标包括预防复发和持久改变,最终目标是让来访者更好的回归现实生活,这就要求在心理治疗过程中不断激发来访者的自我效能,帮助来访者达成从被助到自助的转变。而无节制向智能系统寻求帮助,显然不利于自我效能的发挥。在更微妙的层面上,临床空间中的社会参与可以让个人感觉自己是社会人,而不是病人。[25]自我认知对于来访者的个人成长至关重要,这将影响来访者的治疗信心与康复意愿。
人工智能的使用可能会导致对人际关系和同理心的感知减少。[26]同理心与情感感知能力都是心理治疗的关键要素,过度使用智能治疗系统,将减少现实生活的社交需要,加剧降低来访者的现实感。现实交往与虚拟交往是相互作用的过程,我们不仅能通过虚拟情景学习现实交流的技巧,现实世界的交往方式也会影响来访者与智能机器治疗关系的建立。心理治疗的效果除了受治疗过程影响外,也离不开个体的自我支持,个体的自我支持包括情绪的表达、思维的调整,支持网络。在传统心理治疗中,支持网络主要由家人、朋友以及具有相同问题的人构成;而当前的智能治疗系统,是人机交互的单一模式,过度使用将影响来访者个人支持网络的建立以及网络狭窄化问题。
第二,结构化模型难以实现真正的个性化治疗
心理问题的成因非常复杂,个体的早期经验、应激性事件、生活环境的影响,都能触发认知与情绪反应。虽然当前的心理障碍诊疗呈现越来越标准化的特点,认知行为治疗也强调治理的结构性模型,这构成了心理治疗向智能化系统转变的基础。但是个性化干预措施对于维持患者治疗的积极性至关重要,并能鼓励患者积极参与自身的健康和保健。[27]当前的智能心理治疗系统看起来非常聪明,特别是生成式人工智能的出现,而依据预训练数据的模型依然无法真正理解来访者的真正需求,经过对数据的概念化编码,类效应大大超越个体的差异性,因此看似针对个体的个性化治疗,因为其无法真正理解个体的真实诉求,而难以实现。
在传统心理治疗中,治疗师与来访者的治疗联盟建立在真实的情感流动上,治疗师会在治疗过程中巧妙的设置冲突来推动治疗进程。智能机器无法把握治疗进程中设置冲突的时机,在治疗陷入僵局时,无法变通。智能心理治疗的标准化决定了其更能表现出一种对来访者的无条件的礼貌、尊重与认同,这有助于来访者对机器进行情感投射,促进治疗联盟的形成,提高治疗的依从性。但是由于它常常无法觉知个体隐含的认知与情感诉求,其表现的尊重常常带有一种过度的理性。礼貌本身既可以让交流对象体验到被关心、支持和鼓励,也可能被认为是过度的歉意、居高临下和不值得信任。[28]毫无情绪化的表现会影响来访者与它互动的情感体验,加剧了一种标准化与不真实感。
NLP模型可能完全忽略了那些通过不同于医学文献中现有标准的词汇来表达痛苦的文化。[29]不同文化背景的个体在认知与情感上也具有较大差异,这种群体性差别在结构化模型中也难以做到针对性治疗。深受心理健康问题困扰的个体,特别是主动求治的来访者,她们能够有效觉察疾病带来的不适感。因此在治疗中应该降低来访者的认知与情感负担。当来访者的表述较为复杂,阐述的问题较为新奇时,聊天机器往往不能做出有效回应,这将大大破坏来来访者的信任感,使患者产生“我不被理解”的感受,会加重不良情绪反应,降低来访者的认同感,甚至直接导致来访者的流失。
第三、智能心理治疗的主体性难题
主体性问题是人工智能遭遇的重要伦理问题,决定了智能体是否具有道德与法律的主体地位。智能心理治疗中的机器能够独立行使治疗师的职能,扮演治疗师的角色,与来访者形成一种类“医患关系”,在治疗中,来访者对智能系统诊疗的依从性,也将智能心理治疗从工具属性的客体向主体转变。
智能机器将拟人性做为评估其自身优劣的重要指标,智能心理治疗通过不断提升其拟人性而提升其诊疗能力与接受度。在智能心理治疗中,一些病人需要将智能机器人格化,以便与之建立融洽关系。但没有个性风格与个人经历的电脑,因其情感中立可能会更好地成为完美的“空白屏幕”,供病人进行自我投射。[30]同时,人类与智能机器之间的交流变化与对话伙伴的接受度相关。研究表明:当客户在谈话中发现他们在和聊天机器人交谈时,他们会感到不安,并减少购买行为。[31]这就造成了智能心理治疗领域的一大矛盾:我们到底应该追求智能心理治疗的拟人性,还是应该让来访者知道这一治疗系统的“非人属性”。恰当的使用延迟披露可能是有效的,以免恐怖谷效应的发生,但这里必然又涉及对来访者知情权的损害。
心理治疗中治疗联盟的形成能够影响治疗效果,有研究表明:当用户感知到被帮助、合理性和个人契合度(plausibility and personal fit)——这些早期印象对最终治疗效果具有良好的预测作用。[32]然而正如上文所说,对机器进行情感投射与依赖是相当危险的,智能系统不是情感主体,本身不具有情感能力,这种情感价值涉及对来访者的情感欺诈。也有研究指出,使用者对人工智能产生的情感依恋,只是因为机器被赋予了持续激活关于人类特征的启发式认知,而不是因为有使用者试图与人工实体建立类似人类的关系。[33]这似乎表明,机器是否具有情感主体地位无关紧要。
同时,主体性问题还决定了智能机器在面对来访者可能涉嫌的法律问题时,智能机器是否有义务要进行报告?从技术角度,通过关键字分析或更复杂的NLP检测确定相关术语或者短语是很容易实现对法律敏感问题识别与反馈的。问题的关键在于如果进行报告,是否涉及患者的隐私保护问题,并且,由于可能的机器“幻觉”问题,错误报告的后果将不仅损害治疗本身,还会对来访者造成伤害。如果不向权力机构报告又可能会产生法律风险,而且在别人面临危险的时候举报犯罪也是一种首要的道德义务,即善行和正义。[34]
三、伦理风险化解的可能出路
“为了确保一项技术最大限度上为善,所有参与者都是道德承载者,而非仅仅是某一个人的责任。”[35]在数字心理健康背景下,需要服务使用者、患者、从业人员、研发者、服务提供者合作设计一个具有前瞻性的,面向未来的,规则可靠的,可以被所有参与者信任的监管框架。[36]智能心理治疗的伦理风险化解必然要走向多元主体共治之路。
(一)以开发者为核心,优化智能心理治疗功能与应用模式的迭代
信息质量、服务质量和与人类交互合作是影响用户满意度的重要因素,而满意度、有用性、愉悦感、易用性是用户继续使用聊天机器人的显著预测因子。[37]智能心理治疗的数据质量、敏感信息处理、概念化、情感识别等功能的提升,要依托智能技术领域的自然语言处理、机器学习、大语言模型等技术的发展与迭代。充分考虑使用者的特殊性是十分必要的。当前的自然语言处理技术依据的均为“正常人”的交流信息,对于受心理问题困扰个体,特别是严重心理障碍患者,其语言表达的方式与“正常人”存在差异,这要求机器语言要进行针对性设计与调整,以便对来访者特异性的语言模式进行反应。在情感分析上同样如此,心理问题患者对情感支持与共情的需求更为强烈,同时她们的情感体验也更为敏感,所以如何达到这种情感供给的平衡,在技术上需要进行不断的改进与升级。
智能心理治疗应用的开发,应该由人工智能工程师、心理治疗专家、患者共同参与完成。人工智能科学家与临床心理学家要进行深度合作,致力于打破医学和社会偏见,以及基于此的数据偏见。当前,对于智能心理治疗的认知依旧停留于对技术变革的简单迷恋,而没能充分认识到智能化的治疗路径对治疗本身的重构,开发更加符合智能心理治疗特点的理论落地是心理治疗领域专家的重要使命。患者参与应该是应用程序开发的黄金标准。将患者评估纳入到治疗程序开发中,更好的实现健康领域的智能应用以患者为中心。[38]心理治疗中患者的体验感至关重要,要充分吸收患者对于系统应用的建议,包括隐私处理、信息交互模式、页面设计上尽可能让来访者感受被尊重和可信赖。
研究表明,缺乏支持性的cCBT的治疗效果有限,这与使用者的参与度与积极性直接相关,相比之下,支持性治疗通常与面对面治疗效果相当。[39]通过整合自动化的支持形式,如定期提醒的电子邮件,可以提高无支持干预措施的有效性。[40]因此,可以在智能心理治疗系统中适度嵌入支持方式,以增加智能心理治疗的使用者粘性,增强用户参与度与积极体验。
(二)以使用者为核心,增强心理健康保健与数智素养的库存
智能心理治疗依赖来访者对自我心理健康状况的觉察与评估,主动的通过语言表述自己的认知与情感状态构成其治疗基础。心理健康作为健康的重要组成部分以形成广泛共识,通过心理健康知识的普及与心理健康教育数字化资源建设,继续提升公众的心理保健意识与相关知识库存,培育社会对心理问题的科学态度,降低病耻感与社会歧视,有利于让深受心理困扰的个体能够积极主动的寻求治疗帮助。
加强智能心理治疗知识普及。作为一种新的治疗方式,其社会认知度与参与度还比较有限。一方面要进行准确的宣传,既不要夸大智能心理治疗效用,也不过度提升用户期待。研究表明,使用者对智能机的期望越高,对其功能的评价越低。[41]失望是用户流失率的根源,而治疗的不连续性将直接影响治疗效果。另一方面,要加大智能心理治疗模式的宣传推广,加强对理论与技术、治疗方式、运行机制等方面的阐发,理解治疗过程会让来访者在治疗中更具有效能感,利于治疗联盟的形成与治疗的依从性。同时心理治疗从业者也应参与到对智能心理治疗技术的知识普及中,当然,基于对效用的不同观点,可以采用积极抑或保守的态度。研究表明,精神卫生服务的人员的态度是cCBT使用率低的潜在原因,因为如果没有他们对cCBT的承诺和使用,这些方案就不可能有效传播。[42]这是否涉及心理治疗师因“技术性失业”风险而带来的排斥,还有待进一步研究证实。
再次,要加强公众的数智素养。智能心理治疗建立在智能化、数字化基础上,来访者不仅是数据和智能应用的使用者,本身也是数据的制造者与智能系统运行的驱动者。首先,增加与智能机进行交互的能力,准确将个人感知转换为数据输入,提供高质量的数据;其次,正确对待智能系统的反馈与指导,对数据和智能内容进行分析判断,保有理性批判思维;同时,要提升隐私保护、数据安全等伦理意识。
(三)以监管者为核心,加强准入与监管的规范化
首先,确认智能心理治疗的伦理原则。这一原则应该既遵循智能伦理的一般要求,又要囊括医学伦理与心理治疗伦理的核心要点。无恶意(nonmaleficence)、善行(beneficence)、尊重自主性(respect for autonomy)、 正义(justice)、可解释性(explicability)是人工智能的基本伦理原则。[43]而为了使智能机器的应用潜力不受损害,有观点认为应该采用关于隐私和保密性(privacy and confidentiality)、有效性(efficacy)和安全性(safety)的最低道德标准。[44]
其次,应该将智能心理治疗系统纳入到医疗器械的监管范畴,以更好的保证其安全性与可靠性。智能心理治疗系统作为独立诊疗工具,直接作用于患者,其安全性是最高原则。当前,智能心理治疗在为患者提供诊疗方面,依然面对很多或显或隐的危险,该如何最大限度确保患者的安全是要解决的首要问题。这要求针对医疗使用的聊天机器人,在设计上必须具有更高的准确性、安全性和临床疗效,并且要得到监管机构的证明和批准才能提供医疗功能。[45]这有利于当纠纷产生之后的责任认定。
最后,规范智能心理治疗系统的应用场景。智能心理治疗以其廉价与可获得性作为重要优势,但是,不加限制的滥用必然会对来访者产生不必要的损害,比如应用者的年龄、使用频次、疾病类型、症状严重程度、是否需要人类治疗师协助等问题,在智能心理治疗投入使用前应该进行明确评估与质量认定,并以明确的信息向潜在用户说明。
四、结语
智能心理治疗作为一种全新的心理治疗方式,对当前心理问题高发这一社会难题的解决提供了巨大的应用场景,其潜在的增量价值与协同效应会不断扩大。智能心理治疗所带来的不仅是心理治疗领域的观念转变,更是对心理治疗领域全面而深刻的内涵重构。继续加强针对性智能技术研发、特定心理治疗理论研究、效用论证以及对可能伦理风险讨论能够有力导引这一技术向好向善发展。在社会转型加快的当下,中国庞大的人口基数对智能心理治疗系统有更为强烈的潜在需求,此刻,对与智能心理治疗相关的技术采取审慎与进取的态度是最好的选择。
[①]作者简介:孙丹阳,西安电子科技大学马克思主义学院副教授;李侠,上海交通大学科学史与科学文化研究院教授。
基金项目:教育部人文社科基金一般项目“认知哲学视域下的信念修正研究”(项目编号:22XJC720002)、2023年陕西省社会科学基金年度项目“智能时代意识形态风险的生成机理与治理机制研究”(项目编号:2023A034)阶段性成果。
[②] P. Costa. “Conversing with Personal Digital Assistants: on Gender and Artificial Intelligence”,Journal of Science and Technology of the Arts, Vol.10, No. 3, 2018, pp.59-72.
[③] 蔺桂瑞:《共情使用中的误区及共情能力的提高》,载《中国心理卫生杂志》2010年第6期。
[④] J. Weizenbaum. "Computer Power and Human Reason: From Judgment to Calculation", NewYork San Francisco: W.H. Freeman and Company.1976,p.7
[⑤] G. Haddock, J. Mccarron, N.Tarrier, et al. “Scales to measure dimensions of hallucinations and, delusions: the psychotic symptom rating scales, (PSYRATS)”,Psychological Medicine, Vol.29,No4,1999, PP.879-89.
[⑥] 杜布森:《认知行为治疗手册》,李占江译,北京:人民卫生出版社2015版,第2页。
[⑦] 钱铭怡:《变态心理学》,北京,北京大学出版社2013版,第46、170页。
[⑧] A.Tal, Z. Elyoseph, Y.Haber, et al. “The Artificial Third: Utilizing ChatGPT in Mental Health”,The American Journal of Bioethics, Vol.23, No.10, 2023, pp. 74-77.
[⑨] R.Perera, P.Nand. “Recent advances in natural language generation: A survey and classification of the empirical literature”, Computing and Informatics, 2017,Vol.36, No.1, pp.1-31.
[⑩] K.Denecke, Yh. Deng, “Sentiment analysis in medical settings: New opportunities and challenges”, Artificial Intelligence in Medicine, Vol.64, No.1, 2015, pp.17–27.
[11] R.Calvo, D.Milne, M.Sazzad, et al. “Natural language processing in mental health applications using non-clinical texts”, Natural Language Engineering, Vol.23, No.5, 2017, pp.649-685.
[12] A.N.Vaidyam, H.Wisniewski, J.D.Halamka, et al. “Chatbots and Conversational Agents in Mental Health: A Review of the Psychiatric Landscape” The Canadian Journal of Psychiatry.Vol.64, No.7, 2019,pp.456-464.
[13] B. Meyer, J. Bierbrodt, J. Schröder, et al. "Effects of an Internet intervention (Deprexis) on severe depression symptoms: Randomized controlled trial. "Internet Interventions, Vol.2 , 2015, pp.48-59.
[14] E. Hedman-Lagerlöf, P. Carlbring, F. Svärdman, et al.“Therapist-supported Internet-based cognitive behaviour therapy yields similar effects as face-to-face therapy for psychiatric and somatic disorders: An updated systematic review and meta-analysis”,World Psychiatry , Vol.22, No.2, 2023, pp.305-314.
[15] National Institute for Health and Care Excellence. "Depression in adults with a chronic physical health problem: recognition and management(CG91)", 2009-10-28.
[16] T. Nadarzynski, O. Miles, A. Cowie, et al. “Acceptability of artificial intelligence (AI)-led chatbot services in healthcare: a mixedmethods study”, Digital Health, Vol.5, 2019, pp.205520761987180.
[17] A.Caliskan, J.J. Bryson, A. Narayanan. “Semantics Derived Automatically from Language Corpora Contain Human-like Biases.” Science, Vol. 356, No. 6334, 2017, pp. 183-186.
[18] Z .Waseem , Lulz S , Bingel J ,et al.Disembodied Machine Learning: On the Illusion of Objectivity in NLP. Artificial Intelligence, 2021,11974.
[19] K.Dotson, “Tracking epistemic violence, tracking practices of silencing”,Hypatia, Vol.26,Iss.2, 2011, pp.236-257.
[20] M. Proost,G. Pozzi. “Conversational Artificial Intelligence and the Potential for Epistemic Injustice”,The American Journal of Bioethics, Vol. 23, No. 5, 2023, pp.51-53.
[21] J. Sedlakova, M. Trachsel. “Conversational artificial intelligence in psychotherapy: A new therapeutic tool or agent?”, The American Journal of Bioethics,Vol. 23, No. 5, 2023, pp.4-13.
[22] S.Isabel,C.B.Chris,“Artificial Intelligence in mental health and the biases of language based models”,PLoS ONE,2020,Vol.15,No.12,pp.e0240376.
[23] E. Adamopoulou, L. Moussiades. “Chatbots: History, technology, and applications”, Machine Learning with Applications, Vol.2, 2020, 100006.
[24] (瑞士)C。荣格.现代灵魂的自我拯救【M】.黄奇铭译,北京:工人出版社,1987.58.
[25] J. E.H. Brown, J. Halpern. “AI chatbots cannot replace human interactions in the pursuit of moreinclusive mental healthcare”,SSM - Mental Health,Vol.1, 2021, 100017.
[26] K.Shimada. “The Role of Artificial Intelligence in Mental Health”,AI & Psychology,Vol. 43, No. 5, 2023,pp.1119-1127.
[27] Chen J, Mullins CD, Novak P, Thomas SB. Personalized Strategies to Activate and Empower Patients in Health Care and Reduce Health Disparities. Health Education Behavior. Vol.43, No.1, 2016, pp.25-34.
[28] R. Bowman, O. Cooney, J. W. Newbold. "Exploring how politeness impacts the user experience of chatbots for mental health support", International Journal of Human - Computer Studies, 2023, 103081.
[29] S.Isabel,C.B.Chris,“Artificial Intelligence in mental health and the biases of language based models”,PLoS ONE,2020,Vol.15,No.12,pp.e0240376.
[30] [美]约翰·R.苏勒尔:《赛博人:数字时代我们如何思考、行动和社交》,刘淑华、张海会译,北京:中信出版社2018年版,第515页。
[31] X.Luo, S.Tong, Z.Fang, et al. "Frontiers: Machines vs. Humans: The impact of artificial intelligence chatbot disclosure on customer purchases", Marketing Science, Vol.38, No.6, 2019, pp.937–947.
[32] B. Meyer, J. Bierbrodt, J. Schröder, et al. "Effects of an Internet intervention (Deprexis) on severe depression symptoms: Randomized controlled trial. "Internet Interventions, Vol.2 , 2015, pp.48-59.
[33] A. Rapp, L. Curti, A. Boldi. "The human side of human-chatbot interaction: A systematic literature review of ten years of research on text-based chatbots" International Journal of Human - Computer Studies, Vol.151, 2021, 102630.
[34] S.Coghlan, K.Leins, S.Sheldrick, et al. “To chat or bot to chat: Ethical issues with using chatbots in mental health”, Digital Health. Vol.9, 2023,pp.1-11.
[35] 吕慧云、李侠:《数字治疗在精神疾病治疗中的应用及伦理问题》,载于《哲学分析》2023年第1期。
[36] R. Duggal, I. Brindle, J. Bagenal. "Digital healthcare: regulating the revolution" BMJ, Vol.360, 2018, pp.k6.
[37] M. Ashfaqa, Yn. Jiang, Sb.Yu, et al. “I, Chatbot: Modeling the determinants of users’ satisfaction and continuance intention of AI-powered service agents”,Telematics and Informatics, Vol.54, 2020, 101473.
[38] S. Adus, J. Macklin, A. Pinto. “Exploring patient perspectives on how they can and should be engaged in the development of artifcial intelligence (AI) applications in health care”,BMC Health Services Research,Vol.23, 2023, pp.1163.
[39] S. Gilbody, E. Littlewood, C. Hewitt, et al. “Computerised cognitive behaviour therapy (cCBT) as treatment for depression in primary care (REEACT trial): large scale pragmatic randomised controlled trial”,BMJ, Vol.351, 2015, h5627.
[40] N. Titov, B.F. Dear, L. Johnston, et al. “Improving adherence and clinical outcomes in self-guided internet treatment for anxiety and depression: randomised controlled trial”, PLoS ONE, Vol.8, No.7, 2013, pp. e6287.
[41] G. M. Grimes, R.M. Schuetzler, J. S.Giboney. “Mental models and expectation violations in conversational AI interactions”,Decision Support Systems, Vol.144, 2021, pp.113515.
[42] C.L. Donovan,C. Poole,N. Boyes. "Australian mental health worker attitudes towards cCBT: What is the role of knowledge? Are there differences? Can we change them?", Internet Interventions, Vol.2, No.4, 2015, pp.372-381.
[43] L. Floridi, J.Cowls. “A unified framework of five principles for AI in society”, Harvard Data Science Review,Iss. 1.1, 2019.
[44] K. Kretzschmar, H. Tyroll, G.Pavarini, et al. “Can your phone be your therapist? Young people’s ethical perspectives on the use of fully automated conversational agents (chatbots) in mental
health support”,Biomedical Informatics Insights,Vol.11, 2019, pp.1-9.
[45] S. Gilbert, H. Harvey, T. Melvin, et al. “Large language model AI chatbots require approval as medical devices”,Nature Medicine, Vol.29, 2023, pp.2396-2398.
【博主跋】这篇文章孙丹阳博士写于2023年底,她发给我的时间是2024年1月29日,我修改校对返回的时间是2024年2月9日,后期她又修改校对几次,这个版本是2024年2月9号的版本,现在文章发在《自然辩证法通讯》2025(9)期上,这是一组专题文章中的 一篇,最终文本以知网上首发的内容为准。谢谢各位编辑老师和评审专家,也祝孙丹阳教授未来在心理治疗技术史与思想史领域取得更大的学术成绩。
说明:文中图片来自网络,没有任何商业目的,仅供欣赏,特此致谢。
2025-7-31凌晨于南方临屏涂鸦
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2025-8-2 03:57
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社