找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 131|回复: 0

AI何时达到人类智能水平? AI 界影响最深远的六位人物认为…

[复制链接]
发表于 2025-11-11 20:46 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
上周,素有“工程界诺贝尔奖”之称的英国政府伊丽莎白女王工程奖,颁给了六位在机器学习领域做出奠基性贡献的科学家。分别是黄仁勋、杰弗里·辛顿、约书亚·本吉奥、杨立昆、李飞飞、比尔·达利,其中有三位图灵奖得主,一位诺贝尔奖得主,还有两位英伟达的核心人物。毫不夸张地说,这六位是对 AI 影响最深远的人物。

六位大咖难得齐聚一堂,巅峰对话,虽然只有三十几分钟,但信息量巨大。这些站在AI金字塔尖的人,在AI发展的几个核心问题上展现出了完全不同的观点。

一、算力爆发加数据积累促使AI大步向前大战

76岁的AI教父辛顿分享职业生涯中的关键时刻,讲了个让人印象深刻的故事。

1984年末,辛顿尝试用一种算法,让模型学习预测文本序列中的下一个词。他发现,仅仅通过预测下一个词,模型就自己学会了理解词语的意思。

听起来是不是很熟悉?没错,这就是今天ChatGPT的核心原理。

但辛顿接下来说的话更关键:为了实现今天的成就,他整整走了40年。这40年间,既没有足够的算力,也没有海量数据。当时他们一直困惑,为什么这个明明正确的方法,就是解决不了实际问题?

转折点出现在2010年前后。黄仁勋几乎同时收到了多伦多大学、纽约大学和斯坦福大学三个实验室的合作请求,他们都想用英伟达的GPU来训练神经网络。黄仁勋敏锐地意识到,这种深度学习的开发方式和芯片设计的方法论有惊人的相似。

2012年,辛顿的学生用英伟达的GPU训练出AlexNet,在图像识别比赛中一举获胜。那时,辛顿等了28年的算力支撑,终于来了,颠覆传统机器学习的深度学习一举成名,并由此拉开了AI快速发展的序曲。

如果说辛顿苦等数十年终于等来了算力,那李飞飞解决的就是数据问题。

2006年,李飞飞刚从研究生变成助理教授。她尝试了当时所有主流算法,最后发现核心问题出在数据太少上。于是她做出了一个在当时看来近乎疯狂的决定:花3年时间构建一个超大数据集ImageNet,汇集全球志愿者手工标注的1500万张图像。

说实话,换成任何人是李飞飞的同事,都会觉得她疯了。花3年时间就在标注图片?这在学术界简直是自杀式选择。大多数教授都要快速发论文、拿终身教职,而她却选择了一条最笨、最耗时、最不确定的路。3年时间,可能一篇顶会论文都发不出来,职业生涯可能就毁了。

但她坚信一件事:人类在发育早期就接收海量数据刺激,而当时的机器却处于数据饥荒状态。这个洞察让她做出了那个疯狂的决定。

2012年,辛顿的学生就是用ImageNet数据集训练出了AlexNet,错误率从26%降到15%,这个突破震惊了整个学术界。

有意思的是,杨立昆在对话中提到,ImageNet的成功其实让整个学术界走了一段弯路。他说,正因为李飞飞的标注数据集做得太好了,所以很多技术团队都投入精力做需要人类标注的监督学习。直到2016年左右,大家才意识到,让机器自己学习才是更强大的方式。ChatGPT就是最好的证明。

二、AI到底有没有泡沫

当主持人问到当前AI是否存在泡沫时,对话出现了第一次明显的观点碰撞。

仁勋的回答格外坚定。他说,必须区分当前AI热潮与互联网泡沫的关键差异。互联网泡沫时代,部署的光纤绝大多数处于闲置状态,建设量远超实际需求。而现在,几乎每一块GPU都在全速运转,并创造价值。

他的逻辑很清晰:互联网泡沫时期是基础设施建好了但没人用,而现在每一块GPU都在被充分利用、产生价值。作为全球算力领域的霸主,黄仁勋自然坚持认为当前AI热潮没有泡沫,毕竟他本就是这波浪潮中的最大受益者。

但杨立昆给出了完全不同的答案。他说,从某些角度看,当前AI领域确实不存在泡沫,毕竟基于大语言模型的应用开发仍处于爆发阶段。但另一方面,某种程度的泡沫又真实存在,主要体现在人们误以为仅靠现有大语言模型,就能实现人类级智能。他个人对此持怀疑态度。

说实话,他们俩说的都对,只是看问题的时间尺度不同。黄仁勋站在产业界的角度,看到的是每一块GPU都在创造价值,看到的是应用场景的爆发式增长。而杨立昆站在学术界的角度,看到的是现有技术范式的局限,看到的是仅靠LLM无法实现人类级智能。

本吉奥的观点介于两者之间:如果现实进展未达预期,短期内或许会引发市场调整。但就长期发展而言,基础设施建设的核心价值是确定的。他这话既承认短期可能有泡沫存在,又认可长期价值。

真正的问题不是有没有泡沫,而是你的期望周期有多长。如果你期待一两年就看到AI改变世界,那可能会失望。但如果你看10年,那现在的所有投资很可能是值得的。

三、AI何时达到人类智能水平?

主持人做了个快速问答,让每位嘉宾直接给出时间预期。结果六个人给出了六种完全不同的答案,这可能是整场对话最精彩的部分。

辛顿最激进:如果问题是何时能与机器辩论却始终落败,我认为二十年内必然实现。

李飞飞最辩证:机器智能在某些方面会超越人类,但在另一些方面永远无法与人类智能等同,因为它们的设计目标本就不同。关于何时实现超越?其实部分能力现在已经实现。有几个人能识别22000种不同物体?又有多少成年人能翻译上百种语言?

黄仁勋最实用:我们现有的通用智能水平,已足以在未来数年将这项技术转化为海量社会应用。事实上,这个过程今天已经在发生。所以我的答案是无需纠结,也正在发生。

杨立昆最谨慎:或许未来五到十年内,我们能在新范式探索上取得重大进展。但如果要实现根本性突破,很可能需要比预期更长的时间。目前甚至没有机器人能达到猫的智能水平,这说明我们仍然缺失某些关键认知模块。

比尔·达利最务实:这本身可能就是个错误命题。我们的目标从来不是创造替代人类或超越人类的AI,关键不在是否会取代,而在于作为文明社会能否构建这样的智能。核心宗旨始终是打造增强人类能力的AI。

本吉奥最开放:我认为没有任何理论能证明我们永远无法造出具备人类全部能力的机器。如果保持这个趋势,预计五年内AI就能达到普通雇员的工作水平。

四、给我们普通人的启发

看完这场对话,有一些思考值得分享。

第一,不要被宏大问题困住。AGI何时到来,AI有没有泡沫,这些问题连站在AI金字塔尖的人都没有统一答案,他们的分歧,恰恰说明AI还处于非常早期的阶段,没有人能准确预测未来。与其纠结AGI什么时候到来,不如想想现在的AI能帮你解决什么实际问题。

第二,正确的方向需要时间和坚持。辛顿等了40年才等来算力,李飞飞花了3年做ImageNet数据集,他们的故事告诉我们:真正有价值的技术,需要时间,需要坚持,也需要等待时机成熟。

很多时候,你可能已经找到了正确的方向,只是其他条件还没准备好。这时候需要的不是放弃,而是耐心等待,持续积累。

第三,成功的路径往往不是直线。李飞飞的ImageNet让监督学习大放异彩,结果整个学术界因此走了一段弯路,最后发现自监督学习才是答案。这说明,有时候一个巨大的成功,反而会让所有人都以为找到了唯一正确的路。

保持开放的心态,不要被单一的成功案例限制了想象力。

第四,看问题的时间尺度很重要。关于AI泡沫的讨论,黄仁勋和杨立昆的观点看似矛盾,其实只是时间尺度不同。短期看可能有泡沫,长期看价值确定。这提醒我们,在面对新技术、新趋势时,要想清楚自己的时间尺度是什么。

这场对话虽只有30分钟,但依然给了我们很多启发。AI的未来充满不确定性,但有一点是确定的:AI会持续进化,应用场景会持续扩展,对我们生活的影响会越来越大。

w1.jpg

        欢迎与我交流,期待你的点赞、关注
w2.jpg
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2025-11-16 12:23 , Processed in 0.118340 second(s), 30 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表