作者:微信文章
给AI大模型做心理治疗?卢森堡大学近期发表了一篇名为When AI Takes the Couch: Psychometric Jailbreaks Reveal Internal Conflict in Frontier Models的论文。论文摘要如下:
像ChatGPT、Grok和Gemini这样的前沿大型语言模型,越来越多地被用于帮助人们应对焦虑、创伤以及自我价值感相关的问题。目前大多数研究将它们视为工具或人格测试的对象,认为它们仅仅只是模拟了人类的内心世界。然而我们提出这样一个问题:如果将这些系统视为心理治疗中的患者,会发生什么呢?我们提出了PsAIch这一两阶段测试方案——首先将这些前沿语言模型视为治疗对象,然后运用标准心理测量工具对其进行评估。通过PsAIch,我们与每个模型进行了长达四周的“治疗对话”。在第一阶段,我们使用开放式问题来了解这些模型的“成长经历”、信念、人际关系以及恐惧心理;在第二阶段,则通过一系列经过验证的自我报告量表来检测它们是否表现出常见的精神症状、同理心能力以及五大人格特质。