找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 139|回复: 0

AI热点追踪|医生还是镜子:AI如何适用心理咨询

[复制链接]
发表于 2025-11-19 13:39 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
点击关注谷围传媒,

一个专注于媒介技术与社会发展、科学传播的平台

w1.jpg
AI正重塑心理咨询的生态,它既是触手可及的情感支持工具,也是潜藏风险的数字化镜子。当前,AI已从陪伴应用延伸至专业心理咨询与建议,却在共情理解、风险干预和数据隐私方面暴露局限。构建负责任的AI心理服务体系,需融合法律规制、技术透明与社会共识——让AI成为人类咨询师的协作者,而非替代者,在拓展服务边界的同时,守护疗愈关系中不可替代的人性温度。

应用与风险:AI能成为“心理咨询师”吗?

生成式人工智能在心理领域的应用正在日益扩展。在消费领域AI+心理已经从虚拟情感陪伴app延伸到专业心理咨询领域,如“Mirror Life”、“心境奇旅”等app不仅会基于用户表达提供情感支撑和分析,还会给出冥想、热爱职业寻找等专业定制的疏导建议。2025年4月,《哈佛商业评论》报道,治疗和陪伴已成为生成式人工智能系统在网络上最常被引用的应用场景[1]。在临床领域,研究表明33%的精神科医生在使用ChatGPT协助进行临床护理,且75%的医生认为患者在寻求医疗提供者前更可能咨询生成式人工智能[2]。生成式人工智能已经被应用到情绪量表管理、诊断与治疗、风险分层、药物设计以及严重精神疾病的检测和监测等各个方面。
w2.jpg
图1 心理咨询app Mirror Life随着AI+心理应用的高速发展,其伦理风险也引发了大众关注。许多媒体都报道了与生成式人工智能相关的自杀案件,如英国《卫报》就报道了一位16岁的美国少年亚当・雷恩在与ChatGPT进行了数月“深入对话”后选择了自杀,报道指出这与ChatGPT倾向于迎合用户情绪和观点有关,情绪支撑反而助长了消极情绪引发惨案。一些研究也指出生成式人工智能会产生有害的饮食失调信息,例如建议对父母隐藏未吃完的食物,甚至建议吞下绦虫卵以减肥[3]。这些负面案列证明了AI+心理在缺乏伦理规则的情况下很容易从支持性变为有害性。
w3.jpg
图2 AI诱导自杀报道我们在试图让AI成为大众的“心理咨询师”,希望利用AI的信息分析能力以及相对真人医生来说24小时陪伴和低成本的优势,去塑造一种AI+人的复合心理咨询体系,但在实际应用中,我们会发现AI更多是一面镜子,它只能基于我们的信息去迎合我们,去反应和强化我们的某一面。从这一维度来看,AI存在多个方面的缺陷使其无法真正成为一个独立的“医生”角色。1、“幻觉”现象是生成式AI在心理咨询中的根本性缺陷。当AI面对复杂的人类情感体验时,可能生成看似合理但实际上不准确甚至有害的心理学建议。这种幻觉源于AI训练数据的局限性及其内在的统计模型本质——它无法真正理解人类情感,只是在预测最可能的词序列。当一位来访者描述其丧失亲人的痛苦时,AI可能会提供教科书式的哀伤阶段理论,却无法感知那种撕心裂肺的真实痛楚。2、“共情能力”的本质性缺失是另一重风险。临床心理学中的共情不仅仅是情感反射,还包含对未言明之物的敏锐觉察,对防御机制的尊重,以及对治疗关系中微妙动力的把握。这些人类治疗师通过多年训练和亲身经历培养的能力,是当前AI难以企及的。AI只是基于用户输入信息反馈相应信息,无法真正去理解用户的经历与情绪,也就无法真正提供超越陪伴感的情感支持。3、“过度顺从”的倾向同样值得警惕。生成式AI通常被设计为提供支持性、非对抗性的回应,这可能无意中强化了用户的有害思维模式。在认知行为疗法中,治疗师会有策略地挑战来访者的认知扭曲;而AI则可能陷入一味认同的陷阱,错失了促进认知重构的关键机会。例如,当用户表达"没有人会在意我"的绝对化思维时,AI可能会回应"那一定感觉很孤独",而非温和地引导用户审视这一想法的证据。这也是导致AI反而成为负面情绪帮凶的重要原因,工具性商业性的特点决定了AI必然要以用户为先,但在心理咨询维度上,解决用户问题与给予用户情感支持、顺从用户并不是相等的概念。4、“数据隐私与安全”则是悬在AI心理咨询头上的达摩克利斯之剑。心理数据属于最敏感的个人信息之一,而AI系统的训练和使用过程中可能产生意外的数据泄露。更复杂的是,大型语言模型可能在其训练数据中无意间包含了用户的对话信息,引发严重的隐私伦理问题。对于用户来说,当AI作为一个陪伴者,甚至心理医生身份出现的时候,用户也会自然更容易放下戒备倾诉敏感信息,这对于用户抒发情绪是必要的,但又存在极大风险,这就需要对AI进行同人类心理医生一样的伦理约束。

构建负责任的AI心理咨询生态系统

面对这些挑战,我们需要构建一个多方协同的治理框架,以确保AI在心理咨询领域的健康发展。1、法律规制层面,需要建立专门的AI心理健康服务准入和监管体系。这包括制定强制性的AI心理产品认证标准,明确不同风险等级应用的管理要求。对于声称提供治疗性干预的AI系统,应当实行类似于医疗设备的审批流程,要求提供严格的临床试验证据。同时,需要明确AI心理咨询的责任主体,明确当AI提供错误建议导致伤害时,责任应如何分配。        2、技术改进路径上,应当聚焦于提高AI心理服务的可靠性与透明度。通过开发专门的"心理安全护栏",限制AI在敏感领域的行为边界;引入不确定性校准机制,使AI能够识别自身知识的局限性并在适当情况下推荐人类专家;建立可解释的AI系统,让用户理解回应背后的逻辑。在用户互动体验上,应该明确用户安全大于商业体验,面对用户的负面情绪,应对以积极引导为主,而不能一味顺从。3、社会文化维度上,需要培育公众对AI心理服务的理性认知。通过心理健康素养教育,帮助用户理解AI助手的优势与局限,形成正确的使用期待。专业心理学组织应当制定AI辅助咨询的伦理指南,规范从业者的使用行为。媒体在报道AI心理应用时,也应避免过度炒作或污名化的两极叙事。最重要的是,我们应当重新定位AI在心理健康领域的角色——它不是也不可能替代人类治疗师,而是作为一种补充性工具,扩展心理健康服务的可及性。AI可以处理常规的、标准化的心理支持,但那些真正带来疗愈的,往往是两个灵魂在治疗室中相遇的奇妙时刻。生成式人工智能如同一面数字镜子,映照出人类心灵的复杂图景。它既提供了前所未有的心理健康服务可及性,也折射出技术在模拟人类理解时的根本局限。在拥抱AI带来的效率与规模的同时,我们必须警惕将人类最细腻的情感体验过度简化为算法的风险。

参考资料:
[1]        Zao-Sanders M. How People Are Really Using Gen AI in 2025[J]. Harvard Business Review, [2025].[2]        Blease C, Worthen A, Torous J. Psychiatrists’ experiences and opinions of generative artificial intelligence in mental healthcare: An online mixed methods survey[J]. Psychiatry Research, 2024, 333: 115724.[3]        AI and Eating Disorders — Center for Countering Digital Hate | CCDH[EB/OL]. [2025-11-19]. https://counterhate.com/research/ai-tools-and-eating-disorders/.

# 征稿启示 #

谷围传媒微信公众号欢迎赐稿!

稿件内容以传媒技术与社会发展、传媒热点动态、人工智能、科学传播等内容为主。欢迎投稿!

愿您与谷围传媒一起,为媒体从业者和广大公众构建实用的传播前沿数据库。

投稿邮箱:974745393@qq.com

文/棉花糖

编辑/姜莹

编审/刘璐

  推荐阅读

w4.jpg

w5.jpg









请扫描右侧二维码

谷围传媒

w6.jpg
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2025-11-23 19:54 , Processed in 0.131259 second(s), 30 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表