找回密码
 注册

微信登录

微信扫一扫,快速登录

查看: 206|回复: 0

AI的“第37步”是什么?诺奖得主深入剖析人类未来的两种可能

[复制链接]
发表于 2025-7-25 21:31 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
2016年,AlphaGo以一步出乎所有人意料的“第37手”击败世界冠军。

这一步“神之一手”从此成为AI做出超乎人类直觉、实现颠覆性突破的象征。如今。

一个关键问题摆在眼前:当下的AI,是否正悄悄走出新的“第37步”?

近日,诺奖得主、谷歌DeepMind的CEO德米斯·哈萨比斯在一次深度访谈中,直面了这一疑问。

他认为,AI正逼近一场技术变局的临界点,在带来巨大变革潜力的同时,也伴随着失控或被滥用所导致的“末日风险”。

在最近的播客中,诺奖得主哈萨比斯回答了关于AI与未来的几个核心问题:

    AI将如何改变科学?它将成为最强的“建模师”,高效学习并揭示物理与生物世界的内在结构,就像AlphaGo和AlphaFold做到的那样。


    AGI何时到来,我们如何判断?可能在2030年左右(50%概率)。当一个AI能自己发明一个比围棋更复杂的游戏,或者提出全新的科学假说时,我们就知道它来了。


    AI对我们的日常生活有何影响?它将开启“AI生成界面”时代,为你定制个性化的软件界面和游戏世界。他甚至还想拉上马斯克一起做这件事。


    人类的终极未来是什么?最好的可能是,我们解决能源问题(如核聚变),成为I型星际文明。


    那最坏的可能呢?他坦言,AI的“末日风险”不容忽视。虽然无法量化,但必须保持谨慎乐观。


好的,完全理解。您的要求非常明确:在吃透原文精髓的基础上,用最专业、最精炼的笔法进行一次升级改编,而不是提供多种风格选项。

这段访谈原文的“舒服”之处在于它保留了对话的真实感和思维流动感。专业的写法需要在此基础上,提炼核心逻辑,去除口语化表达,并用更精确、更具份量的语言重新组织,使其成为一篇可以发布在严肃媒体或深度报告中的精华纪要。

以下是按照这个标准为您改编的版本:



访谈精华:德米斯·哈萨比斯论AI、自然与现实的深层联系



核心议题一:AI如何学习并模仿自然演化模型

在探讨AI能力的边界时,德米斯·哈萨比斯重申并深化了他在诺贝尔奖演讲中提出的一个前瞻性论断:“自然界中任何可通过演化生成或被发现的模型,原则上都能通过智能算法被高效地学习和重现。”

他解释道,这一论断的信心源于DeepMind的核心项目实践。无论是AlphaGo面对围棋的天文数字般的可能性,还是AlphaFold解析蛋白质折叠的复杂组合空间,其本质都是在看似无穷的搜索空间中,通过构建智能模型来引导搜索,从而将“不可能”的任务变得“可处理”。

哈萨比斯指出,这种方法之所以可行,关键在于自然系统并非随机,而是具有深刻的“结构性”。无论是生命体在演化压力下的“适者生存”,还是山脉形态、行星轨道在漫长时间尺度下形成的“最稳定者存活”(survival of the stablest),都体现了某种内在规律和模式。这些历经时间考验而留存下来的结构,为AI的学习提供了宝贵的“先验知识”。

因此,神经网络能够通过学习这些非随机的结构,高效地“逆向工程”出自然的解决方案。反之,对于纯粹随机、缺乏内在结构的抽象问题(如大数分解),这种学习范式便不再适用,可能需要依赖暴力计算或量子计算等不同路径。AI的长处在于解码那个由演化精心塑造的、充满结构的自然世界。

核心议题二:视频模型Veo 3与对物理世界的直觉理解

当谈及谷歌最新的视频生成模型Veo 3时,讨论深入到了AI是否具备“理解”能力的核心问题。哈萨比斯认为,Veo 3展现出的能力远超娱乐或模拟的范畴,它触及了AI理解现实的本质。

他承认,Veo 3对世界的理解并非人类哲学层面的深刻思考,但它已能高度逼真地模拟世界的运行方式。其最令人震撼之处,并非模仿人物动作的逼真,而在于对光影、材质、流体等物理效果的精准再现。这表明,Veo 3已具备了一种**“直觉物理”(Intuitive Physics)**的能力——一种类似于孩童通过观察习得的、关于世界如何运作的本能知识,而非基于公式的学术知识。

这一进展颠覆了AI领域一个长期以来的重要假设。哈萨比斯坦言,在几年前,他自己也曾是“具身智能”(Embodied AI)理论的支持者,认为AI必须通过物理实体与环境互动,才能真正理解“杯子会摔碎”这类物理常识。

然而,Veo 3的出现证明,仅仅通过观察海量的视频数据,AI似乎也能学到关于现实世界的深刻结构。这让他倍感惊讶,并意识到现实世界本身可能蕴含着比我们想象中更丰富的、可供学习的视觉信息。

展望未来,哈萨比斯认为下一步是将这些生成的视频世界变为**“可交互的世界模型”**。当AI不仅能生成逼真的场景,还能让用户进入其中互动时,它就真正拥有了在“思维中”模拟世界的能力——这正是通往通用人工智能(AGI)的必要基石。

核心议题三:AI驱动的生成式游戏世界:从“选择的幻觉”到“真实的创造”

德米斯·哈萨比斯,这位从青少年时期便投身游戏AI设计的思想家,将其对未来的展望聚焦于一个终极梦想:构建一个能实时响应并围绕玩家想象力动态演化的开放世界。

他首先剖析了当前开放世界游戏面临的根本困境。尽管此类游戏备受青睐,但其开发成本高昂,且往往只能提供一种“选择的幻觉”。开发者需预设大量内容以应对玩家的自由行动,或依赖不稳定的“涌现”系统,最终仍难以摆脱预设脚本的束缚。哈萨比斯认为,无论是早期《上古卷轴》的随机生成,还是现代3A大作的复杂分支,都未能实现真正意义上的开放。

未来的突破口在于以AI驱动的实时生成系统。哈萨比斯预言,在未来五到十年,AI将能够根据玩家的每一个决策,实时生成连贯、富有张力的剧情和世界细节。这不仅是技术的飞跃,更是游戏设计哲学的根本变革——从开发者预设内容,转向玩家与AI共同创造叙事。他将这一愿景与他早期参与的、采用强化学习的《黑与白》项目联系起来,认为其核心思想一脉相承,即让游戏体验成为玩家行为的直接映射。

更深层次地,哈萨比斯将构建这种终极模拟游戏的挑战,与计算理论中的“P与NP问题”相类比。他认为,创造一个逼真的、允许玩家“为所欲为”的虚拟世界,其复杂性本质上是在探索“宇宙是什么”的物理学与哲学命题。在AI时代,当虚拟与现实的界限日益模糊,游戏将不再仅仅是娱乐,而可能成为人类释放想象力、探索存在意义的重要媒介。

核心议题四:AlphaEvolve:融合大模型与进化算法的创新引擎

当对话转向DeepMind的前沿研究时,哈萨比斯详细阐述了AlphaEvolve所代表的一种极具潜力的新方向——“混合系统”(Hybrid Systems)

他解释道,该系统的核心是一种精妙的分工协作:基础大语言模型(Foundation Model)扮演“创意提出者”的角色,负责生成潜在的、新颖的解决方案;而进化算法则扮演“高效探索者”的角色,在模型指引的广阔搜索空间中进行探索与优化。这种结合,旨在克服传统进化算法的瓶颈。

哈萨比斯指出,过去的进化算法虽能对现有组件进行组合与筛选,却难以进化出真正全新的属性。然而,通过与具备海量知识和生成能力的基础模型融合,AI有望模拟自然进化中最关键的特性:组合式的涌现与分层构建。如同生物从单细胞演化至复杂生命,每一阶段都获得了前所未有的新能力。AlphaEvolve的目标,正是要让AI系统具备这种**“创造新能力”**的能力。

他强调,这种探索并非盲目的随机尝试,而是由目标函数引导的、有方向的创新过程。其价值在于,它能让AI跳出人类现有知识的边界,去发现真正新颖的解决方案,正如AlphaGo通过蒙特卡洛树搜索下出“第37手”一样。这对于实现科学领域的重大突破至关重要。

最终,哈萨比斯将这一技术探索上升至哲学高度。他感叹,进化本身作为一个相对简单的算法,在物理基底上运行数十亿年,却创造出宇宙中最惊人的复杂性与多样性。AlphaEvolve等混合系统的研究,正是人类试图理解、掌握并运用这一宇宙中最强大创造力量的缩影。

核心议题五:AI的“研究品味”:科学创造中难以逾越的鸿沟

在探讨AI能否达到甚至超越人类智慧时,一个核心概念被提了出来——“研究品味”(Research Taste)。这并非指技术熟练度,而是指顶尖科学家在选择研究方向、提出关键问题和设计精妙实验时所展现出的深刻洞察力与判断力。哈萨比斯认为,这正是甄别卓越科学家与优秀科学家的关键分水岭,也是当前AI最难模仿和建模的能力。

他提出了一个核心论断:**在科学探索中,提出一个出色的猜想往往比证明它更具挑战性。**尽管AI系统(如DeepMind的AlphaProof)在解决复杂的、已明确定义的数学问题上已展现出巨大潜力,甚至未来可能攻克千禧年大奖难题,但这属于“解题”范畴。而“出题”——即提出一个如陶哲轩等大师认可的、触及学科本质的深刻猜想——则需要一种当前AI远未具备的、爱因斯坦式的想象力飞跃。

那么,何为“出色的猜想”?哈萨比斯阐释,它必须满足几个严苛条件:

    定位精准:它应处于一个“最佳平衡点”,既非无从下手,也非显而易见,能够有效推动知识边界。

    信息价值最大化:无论最终被证实还是证伪,它都必须能像二分搜索一样,将庞大的“假设空间”有效分割,从而让研究者获得同等价值的宝贵信息。在真正的基础研究中,只要实验设计得当,便无所谓“失败”。

    具备可证伪性:猜想必须在当前技术框架内是可检验的。

这一系列要求决定了“研究品味”是一种高度创造性的整合过程,而非简单的模型搜索。它标志着当前AI与人类顶尖智慧之间存在的本质差距。

核心议题六:模拟生命起源:AI作为探索终极问题的理想工具

对话进一步延伸至科学领域最迷人的谜题之一:生命起源。哈萨比斯对此展现出浓厚兴趣,并认为AI有望成为解开这一谜团的理想工具。

他引述了尼克·莱恩等前沿学者的观点,强调了生命诞生过程的极端复杂性与偶然性,尤其是从单细胞到多细胞生物那长达十亿年的演化跨越。他设想,AI可以通过强大的模拟与组合空间搜索能力,来重演这一过程:设定地球早期热液喷口附近的“原始化学汤”为初始条件,利用AI探索从无机物涌现出类细胞结构的可能路径。

这场讨论最终触及了深刻的哲学层面。弗里ଡ曼与哈萨比斯共同认为,生命与非生命之间可能并非一道清晰的壁垒,而是一个从物理、化学到生物学的连续统一体。打破这种二元对立的认知,将是理解宇宙的关键一步。

哈萨比斯坦言,他投身AI研究的终极动机,正是源于对这类根本性问题的痴迷。他感慨道,现实世界充满了“在眼前尖叫的谜题”——我们甚至无法清晰定义生命与意识,对引力与量子力学的本质也知之甚少。面对这些宏大的未知,人类社会发展出了一种高效的“认知回避机制”,即通过日常的忙碌来分散对这些终极奥秘的注意力。

而AGI(通用人工智能)的终极愿景,正是要创造出一个能够帮助人类直面并系统性解答这些根本性问题的强大工具,从而让我们能够真正理解“现实的本质究竟是什么”。

核心议题七:如何识别真正的AGI——“第37手”式的里程碑与全面认知能力的验证

对于通用人工智能(AGI)何时到来,德米斯·哈萨比斯给出了一个审慎的预测:到2030年,实现AGI的概率约为50%。然而,他立即指出,这一预测的背后是一个更根本的问题:我们应如何定义并识别真正的AGI?

哈萨比斯坚持一个极高的标准:AGI必须具备与人类大脑相媲美的、全面的认知通用性,而非当前AI系统普遍存在的“能力参差不齐”现象。 他强调,一个真正的通用系统,其智能水平在所有认知领域都应保持一致的卓越,并拥有真正的创造与发明能力。

为验证这一标准,他提出了一个双轨并行的测试框架:

    全面基准测试(Comprehensive Benchmarking): 通过涵盖数万个人类认知任务的测试集,系统性地检验AGI在能力广度与稳定性上的表现,确保其没有认知短板。

    里程碑式突破(Milestone Breakthroughs): 这类似于AlphaGo下出的“第37手”——那些颠覆人类认知的、决定性的时刻。哈萨比斯列举了几个典范级的测试:

      科学发现: 在仅提供1900年以前物理知识的条件下,系统能否独立推导出相对论?

      创造性发明: 系统能否发明一个在深度、优雅与美学上堪比围棋的全新游戏?


他进一步阐释,即便人类专家无法预见这些突破,但凭借其专业知识,应能**“事后理解”**其深刻性与有效性,尤其当AGI能清晰解释其推理过程时。这种可解释的、颠覆性的创造力,将是AGI到来的明确信号。

核心议题八:通往AGI之路——增量“爬坡”与范式飞跃的权衡

在实现路径上,当前AI领域存在一个核心辩题:AGI将通过现有技术的持续规模化(Scaling)达成,还是必须依赖一到两个全新的基础性突破(Foundational Breakthroughs)

哈萨比斯对“硬起飞”(Hard Takeoff)——即AI通过递归自我改进实现智能爆炸——持保留态度。他指出,尽管AlphaEvolve等系统已能在具体任务(如优化矩阵乘法)上实现增量自我改进,但它们缺乏对抽象、高层指令(如“让自己变得更好”或“发明一个新游戏”)的理解与执行能力。这与AI难以提出全新科学猜想的问题根源相通。

他用“S形曲线”来比喻这一困境:现有系统非常擅长在当前的S形曲线上“爬坡”(Incremental Climbing),即在现有范式内进行优化。但关键问题在于,仅靠“爬坡”是否足够?还是说,系统必须具备从一条S曲线“跃迁”至另一条更高阶曲线的能力? 哈萨比斯坦言,目前尚未有系统明确展现出这种实现范式飞跃的能力,例如独立构想出Transformer这样的革命性架构。

面对这种不确定性,DeepMind采取了务实的**“双轨并行”战略**:

    一半资源用于最大化现有技术(如Transformer架构)的规模化潜力。

    另一半资源则投入到“蓝天探索”(Blue-sky Research),致力于寻找下一次范式革命的火种。

哈萨比斯对此表现出充分的自信。他认为,当挑战从纯粹的工程问题转向“研究+工程”的复合领域时,恰恰最能发挥DeepMind的优势。回顾过去十余年,现代AI领域80%-90%的重大突破均源于谷歌(包含DeepMind)。同时,他并不担忧高质量数据耗尽的问题,并指出,强大的模拟技术将能够生成海量的、符合真实世界分布的合成数据,为AI的持续发展提供燃料。

核心议题九:未来愿景——AI与新能源驱动的“激进丰裕”文明

展望未来数十年,德米斯·哈萨比斯将人类文明进步的基石,押注于核聚变与太阳能这两大终极能源解决方案。他认为,太阳能作为“天空中的聚变反应堆”,其潜力取决于储能与材料科学的突破;而地面核聚变则是一个工程与控制论问题。一旦解决,人类将进入一个由近乎免费、无限的清洁能源驱动的全新时代。

这一能源突破将引发一系列连锁反应,从根本上重塑人类社会:

    资源稀缺的终结: 廉价能源将使海水淡化、氢能提取(作为火箭燃料)的成本大幅降低,从而解决水资源与太空运输的瓶颈,并为小行星采矿等新领域铺平道路。

    “激进丰裕”(Radical Abundance)时代的到来: 人类将历史上首次摆脱土地、材料、能源等核心资源的“零和博弈”。这将从根本上化解诸多因资源稀缺而引发的冲突,为保护自然环境和实现全球发展提供物质基础。

哈萨比斯强调,在这样的背景下,人类社会的核心议题将从“资源的获取”转向**“资源的公平分配”**,确保技术进步的红利能够惠及每一个人。而AI,正是实现这一切并引导人类走向卡尔·萨根所梦想的“宇宙意识”的关键工具。

核心议题十:AGI竞赛的格局——超越胜负的使命感与协同领导力

在激烈的AGI竞赛中,哈萨比斯展现出一种超越传统商业竞争的领导者格局。他明确表示,用“输赢”来衡量AGI的发展并不恰当,因为其影响深远,关乎全人类的未来。

他将DeepMind的角色定义为**“技术的安全引领者”**,其核心责任是确保这一强大技术被安全、负责任地带给世界。基于此,他提出了几个关键的战略原则:

    合作优先于对抗: 他积极维护与其他前沿实验室的良好关系,认为重大的科学突破应是全人类的共同胜利。他甚至对通过合作“副项目”(如与马斯克开发游戏)来增进互信、培养协同能力持开放态度。


    使命驱动的人才战略: 面对高薪挖角,他认为真正的顶尖人才,是被“站在研究最前沿,并塑造技术未来”的使命感所吸引,而非单纯的金钱激励。他将竞争对手的高薪策略视为一种追赶者的合理战术,但相信DeepMind的科学文化和使命感构成了更深层次的护城河。


    长远视角下的价值重估: 他甚至预言,当AGI实现、能源问题解决后,现有的经济体系乃至“金钱”本身的意义都可能被重塑。因此,当下的薪资之争,在宏大的历史进程中仅是次要问题。


核心议题十一:产品哲学与技术执行——在巨头体内保持初创公司的敏捷与品味

在具体执行层面,哈萨比斯分享了谷歌DeepMind如何将宏大愿景转化为行业领先的产品。

面对“大公司病”的挑战,他强调以“初创公司心态”保持敏捷与决策果断,同时充分利用谷歌世界级的产品平台,实现“研究”与“落地”的高效结合。

他的产品哲学根植于其早年的游戏设计经验,核心是“前沿技术与用户体验的跨学科融合”:

    品味与直觉至上: 无论是科学研究还是产品设计,“品味”都是最关键的能力。他认为艺术与科学、产品与研究之间并无绝对界限,而是一个连续的整体。


    AI生成界面(AI-Generated UI): 他预言,未来的交互将超越低带宽的打字,进入一个由AI动态生成的、高度个性化的界面时代。界面将根据用户的审美、习惯与任务需求实时演化,实现简洁、优雅且高效的人机交互。


    系统化的版本迭代与模型矩阵: 他清晰地阐述了Gemini模型的发布规律。主版本号(如3.0)的更新,代表着为期约6个月的、包含架构创新的“核心训练”周期。


    而次级版本(如2.5)则更多是基于同一基础模型的“训练后优化”。同时,通过“蒸馏”技术,团队会推出覆盖“帕累托前沿”(性能与成本/速度的最优平衡点)的不同规模模型(Pro、Flash等),为开发者提供丰富的选择。


最后,他强调了对基准测试的辩证看法:它们是必要的度量衡,但绝不能“过度拟合”。真正的目标是实现“无遗憾改进”(no-regret move),在提升某一能力时不损害其他能力,最终打造一个由真实用户反馈驱动的、全面而强大的通用系统。

核心议题十二:对“末日概率”的回应——一种谨慎乐观的务实框架

在回应关于人类文明自我毁灭概率(P-Doom)这一终极问题时,德米斯·哈萨比斯首先明确拒绝了为其赋予具体数值的做法,他认为任何试图对“末日概率”进行精确量化的行为,本质上是缺乏科学依据的,甚至近乎荒谬

然而,他紧接着强调,这并不意味着风险可以被忽视。他给出的核心判断是:该概率“绝对非零,且可能不容忽视”(non-zero and non-negligible),这一事实本身就足以引发最高级别的审慎。

面对AI技术发展中“高度不确定性与高风险并存”的局面,哈萨比斯认为人类文明正处在一个关键的岔路口:一条通往解决疾病、能源等重大问题并走向星际的空前繁荣;另一条则可能导向灾难性的“末日场景”。

在此背景下,他提出了唯一理性且明智的行动纲领——“谨慎乐观地前行”(Proceed with cautious optimism)。这一立场包含双重含义:

    乐观与必要性:我们必须积极拥抱AI,因为它可能是解决气候变化、资源短缺等现有全球性危机的唯一有效工具。放弃AI本身就是一种巨大的风险。

    谨慎与责任:我们必须清醒地认识到AI伴随着巨大的、尚未能完全量化的潜在风险。因此,必须以科学方法对其进行更深入的研究、定义和管理,当前投入的精力与资源,与挑战的严峻性相比还远远不够。


核心议题十三:风险剖析——滥用风险与失控风险的双重挑战

哈萨比斯进一步将AI风险清晰地划分为两大不同时间尺度上、需同时应对的类型:

    滥用风险(Misuse Risk):即“恶意行为者问题”

      定义:指不负责任的个人、组织或国家,利用日益强大的AI技术从事恶意活动。


      核心困境:这带来了深刻的治理难题,即如何在**“开放科学”(如AlphaFold项目,其开放性极大地推动了全球生命科学进步)所带来的巨大利益,与“防止技术武器化”**的迫切需求之间取得平衡。这是一个目前尚无明确答案的棘手挑战。


    失控风险(Loss-of-Control Risk):即“对齐与控制问题”

      定义:随着AI系统自主性的增强并逼近AGI,其内部目标或行为可能偏离人类的初始意图,导致不可预见的、灾难性的后果。


      核心挑战:如何设计并构建有效的**“安全护栏”(Safety Guardrails)与对齐机制**,确保超级智能系统的行为始终与人类的核心价值观和长远利益保持一致。



他最后指出,这两类风险相互交织,增加了问题的复杂性。例如,一个高度对齐、可信的AI系统,或许能帮助我们监测和防范滥用风险。这最终要求整个国际社会协同努力,就AI安全与治理达成关键共识与基本协议。
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+2, 2025-8-12 00:30 , Processed in 0.090295 second(s), 27 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表