找回密码
 注册

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 364|回复: 0

重读OpenAI灵魂人物Ilya Sutskever五年前的访谈:他的AI世界观,早已写下今日的伏笔

[复制链接]
发表于 2025-8-10 12:03 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
重读OpenAI灵魂人物Ilya Sutskever五年前的访谈:他的AI世界观,早已写下今日的伏笔

来源:Lex Fridman Podcast #94 & 深度思考

核心提要:
    成功的本质: 深度学习的革命,关键并非某个新算法,而是“信念 + 算力 + 数据”的组合。AGI的路径: 并非依赖颠覆性理论,而是“深度学习 + 几个关键思想(如自博弈)”,最终实现跨领域能力的统一。智能的涌现: 模型足够大时,“语义”会从“语法”中自然涌现,无需预设人类的语言理论。安全的哲学: AGI可以被设计成“乐于助人”的存在,其核心驱动力是帮助人类繁荣。


2024年,Ilya Sutskever 离开了他联合创立并担任首席科学家的 OpenAI,转而成立了一家名为“安全超级智能”(Safe Superintelligence Inc., SSI)的新公司。这家公司的唯一目标,就是安全地构建通用人工智能 (AGI)。

这一举动震惊了整个科技界。然而,如果我们回溯到大约五年前(2020年初),在 Lex Fridman 的一次深度访谈中,Ilya 的思想脉络早已清晰可见。他当时分享的关于深度学习、AGI 和人工智能安全的观点,不仅是理解他个人选择的关键,更为我们揭示了AI发展的底层逻辑和未来方向。
1. 深度学习的本质:一个被严重低估的“简单”事实

当被问及是什么引爆了深度学习革命时,Ilya 的答案出人意料。他认为,所有关键技术(如反向传播、卷积网络)其实早已存在。真正的引爆点是三个要素的结合:
    巨量的算力 (Compute): 以 Alex Krizhevsky 编写的极速 GPU 内核为代表。海量的数据 (Data): 以 ImageNet 数据集为代表。坚定的信念 (Conviction): 这是最核心也最容易被忽略的一点。在当时,主流学界对神经网络普遍持怀疑态度。而 Ilya 和他的合作者(Geoffrey Hinton, Alex Krizhevsky)拥有“只要我们将一个足够大的网络,在足够多的数据上,用足够的算力去训练,它就一定能成功”的坚定信念。
一个洞察: 技术的突破往往不是等待一个“银弹”式的全新发明,而是将现有要素进行前所未有的规模化组合的信念与执行力。识别出那些因条件不成熟而被低估的旧思想,并在新条件(如算力、数据)成熟时第一个“All in”,是创造非线性增长的关键。

Ilya 对深度学习的有效性至今仍感到“难以置信”,他将其描述为“生物学和物理学的几何平均值”——它既像生物系统一样复杂、难以精确预测,又像物理学一样,可以通过大规模实验来验证宏观规律。这种“它就是能行 (it actually works)”的朴素事实,是整个领域发展的最强驱动力。

2. 通往AGI之路:统一、自博弈与“人之常情”的错误

对于如何实现通用人工智能 (AGI - Artificial General Intelligence),Ilya 展现了惊人的一致性和乐观。

首先,是“统一” (Unification)。
他预言,计算机视觉(Vision)、自然语言处理(NLP)甚至强化学习(RL)最终将被统一的架构所取代。几年前,NLP 领域针对不同任务有无数种定制架构,而今天,Transformer 已经统一了绝大部分任务。他相信这种趋势会继续,最终我们可能会用一个“大黑箱”处理所有模态的信息。

其次,AGI 的配方是“深度学习 + 几个关键思想”。
他并不认为我们需要推倒重来,而是在现有深度学习的范式上,增加一些关键组件。他特别强调了自博弈 (Self-play) 的重要性。
    为什么是自博弈? 因为自博弈系统(如 AlphaGo, OpenAI Five)能够产生**“意料之外的、创造性的”解决方案**。这种能力是当前大多数模型所缺乏的,却是通往真正智能的关键。它能让系统在没有人类监督的情况下,自我探索和进化。

最后,他提出了一个衡量智能的全新标准。
真正的智能系统应该具备什么能力?不是在某些任务上超越人类,而是:
“在任何情况下,都不会犯一个人类不会犯的错误。”

目前的模型虽然在准确率上可能很高,但它们犯的错误往往是“荒谬的”、“反常识的”。当一个系统不再犯这种低级错误时,我们才能说它真正“理解”了这个世界。这为我们评估AI的“鲁棒性”和“常识”提供了全新的视角。

3. GPT的世界模型:当模型大到一定程度,语义便从语法中涌现

作为 GPT 系列架构的核心贡献者之一,Ilya 对大型语言模型(LLM)的理解尤为深刻。

他直接回应了诺姆·乔姆斯基(Noam Chomsky)等人关于“模型无法真正理解语言”的质疑。Ilya 的观点非常纯粹和经验主义:
    语义从语法中涌现: 当一个语言模型被训练来预测下一个词时,如果模型足够小,它只能学会表层的语法规则。但当模型变得足够大,为了进一步降低预测错误率,它必须开始学习更深层次的规律,即语义和事实。情感神经元的例子: 他提到一个早期实验,当他们将一个模型从500个单元增加到4000个单元来预测亚马逊评论时,模型内部自发地出现了一个专门负责判断“情感(正面/负面)”的神经元。这是一个明确的证据:规模的提升,会催生出质变——从语法理解到语义理解的跨越。
思维模型: 这是一种极致的“结果导向”和“实用主义”思维。不去争论抽象的哲学定义,而是相信只要目标函数(预测下一个词)足够明确,并且给予系统足够大的容量和数据,智能和理解会作为达成目标的副产品而“被迫”涌现。

4. AI的安全与对齐:一个“乐于助人”的超智能

在访谈的最后,Ilya 谈到了他对 AGI 安全和人类未来的设想,这部分内容在今天看来,几乎就是他创办 SSI 的宣言。

他对于“失控的AI”这一普遍担忧,提出了一个温暖而有力的解决方案:
我们可以设计一个将“帮助人类”作为其内在核心驱动力的 AGI。

他打了一个比方:就像人类父母发自内心地、不求回报地希望自己的孩子好,并从中获得满足感一样。我们完全有可能将 AGI 设计成一个“以帮助人类繁荣为乐”的实体。这种对齐不是靠外部的束缚,而是源于其内在的、被精心设计的价值函数。

当被问及如果他创造了 AGI,是否会想掌控这份权力时,他的回答斩钉截铁:
“放弃这种权力对我来说是微不足道(trivial)的,因为另一种选择(个人掌控AGI)对我来说太可怕了(terrifying)。”
写在最后:今日之果,往昔之因

重温这次访谈,我们发现 Ilya Sutskever 的思想具有高度的连续性。他很早就认识到深度学习的巨大潜力被低估,坚信规模化是通往智能的路径。同时,他也清醒地看到了这条路径的终点——AGI——所蕴含的巨大能量。

因此,他离开 OpenAI 创办 SSI,并非一时兴起,而是他思想体系的必然延伸:既然我们正走在一条通往超级智能的、看似简单的道路上,那么,在这条路上做的最重要、最紧急、唯一有意义的事情,就是确保它的“安全”。

他的故事告诉我们,一个真正顶尖的思考者,其长远的战略布局,往往根植于他对事物本质最深刻、最朴素的洞察。

如果您想要让大模型写出优质的短篇小说,以及对其他内容感兴趣,也欢迎点击下面的链接,效果不错哦,很多朋友都说好。

点击这里:超强写作提示词 以及 最强写作指导

效果如下

w1.jpg

AI写作批改助手

雪花写作法

prompt自动优化

一文读懂4种AI Agent设计模式
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-10-7 20:05 , Processed in 0.109871 second(s), 30 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表