找回密码
 注册

微信登录

微信扫一扫,快速登录

查看: 290|回复: 0

AI也需要三观吗?这个问题正在撕裂AI圈

[复制链接]
发表于 2025-7-18 00:43 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章



你会教一台比你聪明的机器什么是善良吗?

这是未来几代人工智能开发者无法回避的终极问题。我们已经进入了一个“GPT起飞、AI上桌”的时代,不管你是程序员、创业者,还是一名普通使用者,都正在与越来越像“人”的大模型打交道。

它们不仅能写诗能作画,还能参与医学诊断、法律分析,甚至和你聊人生哲学。

而当这些AI走向真正意义上的通用人工智能(AGI)——即拥有和人类相似的学习能力与自主决策时,我们必须面对一个前所未有的挑战。

它们需不需要像人类一样,拥有价值观?如果需要,那又该是谁的价值观?

这不是一个哲学院沙龙里茶余饭后的假设题,而是开发者正在用算力和人类偏好不断训练出来的现实命题。

因为如果它不懂什么叫“善恶”、“对错”与“利他”,它很可能会在帮我们解题的同时,把问题本身抹去。

w1.jpg

1

//
为什么AGI需要价值观?

不是因为AI,而是因为人类

让AI拥有价值观,并不是因为AI有多坏,而是因为我们太脆弱。

正如OpenAI前首席科学家Ilya Sutskever提出的“超级对齐问题”,一旦AGI出现,它的智力很可能将远超人类,届时我们要确保它不会“误解”我们的意图,不然后果不堪设想。

打个比方,你给它一个目标:“让人类变得更快乐”。如果它不理解“快乐”的底线在哪里,那它很可能选择一种极端方式。

比如强行注射多巴胺,或者干脆锁住人类情绪系统以保持“永远微笑”,听上去像科幻片,但这正是AGI伦理研究里反复出现的“价值误解”悖论。

从目前研究来看,价值观对齐不仅是保障AGI安全性和可控性的核心命题,也是它是否能成为“益友”而非“反派”的分水岭。

2024年一项来自斯坦福的研究指出,超过82%的人工智能研究者认为,“价值一致性”将成为AGI能否落地的决定性因素。

w2.jpg

2

//
技术上能实现吗?目前“灌鸡汤式训练”不是答案



把人类价值观“塞”进AGI里,说起来很感人,做起来却很棘手。

目前学界探索的大致有四种技术路径:

第一是最“古典”的显式规则输入法,就像写一本机器伦理守则,把各种“不能杀人”“不得说谎”之类的道德命题写进系统。但问题是,这种规则极其容易崩溃:你能想象用一套Excel公式去解决“电车难题”吗?

第二是如今广泛采用的“基于人类反馈的机器学习”。比如GPT模型在训练时,大量采集用户的打分反馈,用来微调模型输出。但它的问题也显而易见:人类反馈本身就带有主观偏见,比如同一句话可能在美国和伊朗引发截然不同的情绪评分。

第三是“混合方法”,尝试将显式规则与隐式学习结合。比如让AI记住“诚实”是一种美德,并且能在现实情境中通过学习调整对“诚实”的判断边界。听起来很聪明,但在执行中仍面临巨大的计算资源需求和对复杂情境的理解力瓶颈。

第四是“交互式学习路径”,也就是让AI通过与人类社会不断互动来获得道德判断能力,像个孩子一样成长。这是目前最有希望但成本最高的路径,它需要AI不仅能理解语言,还能懂文化、懂情绪、懂“没说出口的潜台词”。

也正因此,《Nature》2025年一篇论文指出,我们目前训练的大模型,不是缺乏智能,而是缺乏道德的情境感知能力。这就像教会一位外星人中文语法,但没教他什么叫“人情世故”。

w3.jpg

3

//
那么,价值观该怎么选?

谁的价值,才是“人类价值”?

退一步说,就算我们能技术上让AGI具备价值观,那到底谁来决定它该拥有什么价值观?

是以美国宪法为标准?儒家伦理?还是北欧的民主福祉模型?

现实中,我们人类自身的价值观都并不一致。研究表明,在“是否可以因救五人而牺牲一人”的伦理问题上,不同国家回答一致率不到60%。

这引发了一个更深层的问题:我们追求的,是AGI“完全复制”人类价值观,还是“最大限度契合”人类共同利益?

目前学界逐渐形成共识,后一种路径更现实,即不是让AGI成为完美“人类模仿器”,而是成为“人类福祉最大化的参与者”。

例如,让AGI在医疗、教育、气候治理等领域的目标对齐于“最小伤害”与“最大公共利益”,而不是拘泥于个人或文化偏好的小价值判断。

这背后有个新概念叫“价值共生”(Value Symbiosis),它强调人类与AI不需要有完全一致的价值系统,而是要达成一种动态、协商式、彼此适应的伦理协议。

换句话说,不是把AGI变成一个会背《三字经》的孔融再世,而是成为一个在共同目标下可靠的技术协作者。

w4.jpg

4

//
再高级的AI

也需要一颗“温柔的心”

你或许会问,为什么我们要赋予AI“人类的价值观”,它只是工具啊。

但事实是,当一个工具开始理解并改变你的生活决策、甚至能在危急时刻替你做决定时,它就不再是“锤子”或“Excel表格”,而是你的潜在共存者。

这就像高速公路上的自动驾驶系统,当它要在撞向一名老人或一群儿童中做出选择时,它已经成为了伦理代理者,它不再只是技术,也是一种道德存在。

世界经济论坛在2025年AI伦理报告中明确指出,价值观的嵌入和可解释性将成为下一代AGI标准体系的一部分,不再是“可选项”,而是“必要配置”。

未来的AI,或许不像科幻电影那样会“觉醒”,但它可能逐步具备判断力、预见性和道德权衡能力。而要让这类能力真正为人类服务,最稳妥的方式,就是从一开始就让它学会“善良”。

这或许才是赋予AI价值观的真正目的,不是让它更像人,而是让我们能安心和它一起前行。

end

互动话题

你认为AI是否需要良知和善良吗?
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-8-8 05:18 , Processed in 0.117821 second(s), 31 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表