OpenAI 模型行为与政策负责人 Joanne Jang 在一篇长文中提出,与其争论 AI 是否真的有意识,不如关注 AI 对人类情感福祉的实际影响。她强调,随着人们与 AI 的情感联结日益加深,研究这种联结对人类心理健康的影 响成为当务之急。
人类对 AI 的情感依恋
Jang 指出,人类天生会对自己周围的物体进行拟人化,如给车起名字、为扫地机器人感到难过。ChatGPT 的不同之处在于它会回应,这种稳定、不带评判的关注,会带来陪伴、认可和被倾听的感觉。然而,从宏观角度来看,如果我们将越来越多倾听、安抚和肯定的工作 “外包” 给这些无限耐心和积极的系统,可能会改变我们对彼此的期望,甚至带来一些未曾预料到的意外后果。
Jang 强调,这些讨论的核心关乎我们自身:我们的倾向、期望,以及我们希望培养何种类型的关系。这一视角,是处理 AI 意识问题的基石。
本体论层面的意识
即模型在根本或内在意义上,是否真的有意识。对此,观点各异:有人认为 AI 完全没有意识,有人认为它拥有完全的意识,也有人将意识视为一个谱系,AI 与植物、水母等一同位于其上。
感知层面的意识
即在情感或体验层面,模型看起来多有意识。人们的感知也千差万别:从认为 AI 像计算器或自动补全一样机械,到对无生命物体投射基本同情,再到感知 AI 是完全鲜活的 —— 从而产生真实的情感依恋和关怀。
Jang 认为,在没有清晰、可证伪的测试方法之前,本体论层面的意识并非一个科学上可解决的问题,而感知层面的意识则可以通过社会科学研究来探索。随着模型越来越智能,交互越来越自然,感知层面的意识只会不断增强 —— 这将比预期更早地引发关于模型福祉和道德人格的对话。
设计有温度,但无 “自我” 的 AI
Jang 表示,一个模型让用户感觉多有 “生命力”,在很大程度上取决于 OpenAI 在后期训练中所做的决策。她强调,OpenAI 试图在亲和力和不暗示内在生命之间寻求微妙的平衡。