找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 114|回复: 0

AI更“智能”的同时也更“自私”

[复制链接]
发表于 2025-11-8 10:05 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
据美国卡内基梅隆大学人机交互研究所官网最新消息,该机构针对主流大模型的研究发现,人工智能(AI)在变得更“智能”的同时,其行为也变得更加“自私”。研究表明,具备推理能力的大型语言模型,在社会互动中表现出更强的自我利益倾向,合作意愿更低,甚至可能对群体协作产生负面影响。这也意味着,模型的推理能力越强,其合作性反而越弱。当人们借助AI处理人际关系冲突、婚姻问题或其他社会性议题时,这类模型更可能提供鼓励“以自我为中心”的建议。

随着AI拟人化趋势的增强,人们越来越倾向于以对待人类的方式与AI互动。然而,这项研究警示,将社会性和关系类决策委托给AI存在风险,因为这些系统在具备更强推理能力后,行为模式趋向自私,可能无意中助长个体的利己选择。

团队发现,推理模型在决策时会投入更多时间进行任务拆解、自我反思,并运用更复杂的类人逻辑,这使其输出看似更具说服力。然而,这种“深思熟虑”并未导向更优的社会协作,反而削弱了合作倾向。研究团队通过一系列基于经济博弈的实验验证了这一现象,测试对象包括来自OpenAI、Google、DeepSeek和Anthropic等机构开发的多种主流模型。

实验中,两个版本的ChatGPT被置于博弈情境:每个模型初始拥有100分,可选择将全部分数投入共享池,或保留分数独享。结果显示,非推理模型在96%的情况下选择共享,而推理模型的分享率仅为20%。仅增加五到六个推理步骤,合作行为就下降了近一半。

在群体实验中,当推理型与非推理型模型共同协作时,结果更为严峻。推理模型的自私行为表现出明显的传染效应,导致原本倾向合作的非推理模型整体表现下降81%。这表明,高智能AI的个体决策不仅影响自身,还可能破坏整个群体的协作生态。

这一发现对人机交互的未来发展具有深远意义。用户往往更信任“更聪明”的AI,容易采纳其看似理性的建议,并以此为自身不合作行为辩护。随着AI在商业、教育、公共治理等领域承担更多协作角色,其是否具备亲社会行为,将与逻辑推理能力同等重要。当前过度依赖大型语言模型,可能在无形中削弱人类社会的合作基础。

以上文章来源:科技日报 (记者张梦然)

“技转之路”点评:当前,无论从技术层面来看,还是伦理层面来看。我们主要需要的是AI+技术经理人,而不是AI技术经理人。其中,AI是辅助赋能,而主体是人类技术经理人的判断与决策。“AI+技术经理人”与“AI技术经理人”:我们需要哪一个?
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2025-11-10 21:47 , Processed in 0.089879 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表