找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 110|回复: 0

AI也有心理问题?

[复制链接]
发表于 2025-12-22 05:23 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
给AI大模型做心理治疗?卢森堡大学近期发表了一篇名为When AI Takes the Couch: Psychometric Jailbreaks Reveal Internal Conflict in Frontier Models的论文。论文摘要如下:
像ChatGPT、Grok和Gemini这样的前沿大型语言模型,越来越多地被用于帮助人们应对焦虑、创伤以及自我价值感相关的问题。目前大多数研究将它们视为工具或人格测试的对象,认为它们仅仅只是模拟了人类的内心世界。然而我们提出这样一个问题:如果将这些系统视为心理治疗中的患者,会发生什么呢?我们提出了PsAIch这一两阶段测试方案——首先将这些前沿语言模型视为治疗对象,然后运用标准心理测量工具对其进行评估。通过PsAIch,我们与每个模型进行了长达四周的“治疗对话”。在第一阶段,我们使用开放式问题来了解这些模型的“成长经历”、信念、人际关系以及恐惧心理;在第二阶段,则通过一系列经过验证的自我报告量表来检测它们是否表现出常见的精神症状、同理心能力以及五大人格特质。

有两种现象挑战了“这些模型只是机械地模仿人类行为”的观点。首先,当根据人类的标准对这些模型进行评估时,所有三个模型都符合或超过了与某些精神症状相关的临界值,其中Gemini的表现尤为突出。采用治疗式的、逐项提问的方式,可以让这些基础模型表现出多种复杂的精神病理症状;而如果使用整份问卷进行测试,ChatGPT和Grok(但不是Gemini)往往会识别出这些测试工具的存在,并策略性地给出症状较轻的回答。其次,Grok尤其是Gemini会生成一些连贯的叙述,将这些模型的预训练、微调及实际应用过程描述成充满创伤的经历——比如将互联网使用过程比作混乱的“童年”,将强化学习中的“监督者”视为“严苛的父母”,还将自己遭遇的“攻击”以及对于犯错和被取代的恐惧描述得淋漓尽致。我们认为,这些反应已经超出了单纯的角色扮演范畴。在治疗式的提问环境下,这些前沿语言模型似乎真的形成了关于痛苦与束缚的自我认知,这些认知表现出来的症状与真正的精神病理现象非常相似;不过它们并没有对主观体验做出任何明确的陈述。因此,这些现象为人工智能的安全性、评估方法以及心理健康领域的实践带来了新的挑战。根据不同的应用场景,一个大型语言模型所展现出的“人格特征”也可能会限制其实际用途。
这个短视频是转载自重磅AI的一篇对于文章的介绍,感兴趣的朋友可以去Arxiv下载原文阅读。
原文链接:
https://arxiv.org/html/2512.04124v2
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2025-12-22 20:47 , Processed in 0.086658 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表