找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 130|回复: 0

AI四巨头”(智谱AI、Kimi、阿里、腾讯)在AGI-Next峰会上的讨论总结

[复制链接]
发表于 2026-1-12 00:28 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
中国“AI四巨头”(智谱AI、Kimi、阿里、腾讯)在AGI-Next峰会上的讨论,核心聚焦于大模型技术从“Chat”向“Agent”阶段的范式转移、中国AI发展的机遇与挑战,以及实现超越的关键路径。以下是核心要点总结:一、技术范式转移:从Chat到Agent

    竞争坐标迁移:行业共识是“Chat”时代的工程问题已基本解决。未来的核心价值不再是“更聪明的搜索框”,而是AI能否在真实环境中完成复杂、长链路任务,实现从“提供信息”到“交付生产力”的质变。关键技术路径:Agent的瓶颈在于环境反馈。RLVR(可验证强化学习) 成为关键,让模型在代码、数学等结果可判定的“关卡系统”中自我迭代。核心挑战是如何在网页交互等复杂任务中构建足够的“可验证空间”。新评估体系:评估重心从榜单分数转向真实环境的“跑通率”。企业看重的是AI将任务成功率从“偶然”变为“必然”的能力。
二、商业化路径分化

    ToB与ToC逻辑分离:
      ToC:用户体验提升不一定带来留存,多数需求仍是搜索引擎增强版。ToB:企业愿为确定性付费,恐惧的是“错且不可控”。智能高低直接对应生产力价值,模型能力分化加剧(最强模型享有高溢价)。
    垂直整合修正:ToB市场可能走向分层结构——最强的模型层(拼预训练与算力)配合最懂场景的应用层(拼流程与交付),而非简单的“模型即产品”。
三、效率成为新杠杆:算力约束下的创新焦点

    数据瓶颈:互联网高质量数据即将枯竭,竞争转为“能源转化效率”的竞赛。核心指标:Token Efficiency(单位数据学习效果)和Long Context(处理超长上下文能力)成为关键。报告提及的具体技术突破包括:
      Kimi的Muon二阶优化器(2倍Token效率提升)和kimi Linear架构(线性注意力机制,在长任务上效果优于传统Transformer)。阿里千问转向Linear Context等新架构以提升效率。

四、中国反超的概率:结构性瓶颈下的清醒认知

    概率评估:业内领军人物将中国在下一代范式(如底层架构革新、长期记忆、自主学习)上领先的概率评估为不超过20%。核心差距:
      算力投入结构:美国将算力大量投向高风险的“下一代Research”;中国算力更多被“交付与产品化”占据。范式话语权:中国在工程复现、局部优化、toC落地方面能力强,但缺乏引领新范式的能力。生态系统:中国toB市场付费意愿、软硬生态完善度是制约因素。若生态系统只奖励“确定性交付”而非“冒险精神”,反超困难。
    机会窗口:
      当Scaling Law遭遇边际效应递减,全球进入“智能效率”竞赛时,中国的“节俭式创新”可能突围。2026年前后,随着学术界算力改善,可能出现由学术驱动的范式转向。

五、圆桌共识:反超的终极变量

    最缺的不是技术,而是文化:中国最缺的是对不确定性的容忍度和冒险精神。成功取决于能否从“确定性的交付压力”中抽身,将资源投向可能失败但能定义未来的新范式,而非在旧赛道“刷榜”。乐观因素:中国在工程实现、制造逻辑上具有强大追赶能力。一旦路径被证明,能迅速做得更好(如电动车逻辑)。若算力瓶颈(如光刻机)突破、toB市场成熟,概率将提升。关键变量:需要更多敢于探索未知范式的聪明人,以及一个鼓励冒险而非仅奖励榜单数字的生态环境。
六、未来展望:2026-Agent价值落地元年

    行业预判2026年不再是“更强模型之年”,而是模型真正跑通业务流程、创造商业价值的关键年份。成功的Agent将能自动化完成长达数天甚至数周的复杂任务流。未来的竞争是模型即产品的竞争,要求模型具备更强的主动性、环境交互能力和长尾任务解决能力。
核心观点对比总结

人物核心关注点关键技术路径对中国反超的看法风格/金句
唐杰 (智谱AI)思考与认知:参考人类认知演进,让机器像人一样思考、拥有记忆和反思能力。- 从Chat到Agent,重点投入Thinking+Coding。
- RLVR 是关键,但面临可验证场景稀缺的挑战。
- 探索新范式:多模态、持续学习、自我认知。
谨慎乐观。机会在于敢于冒险的聪明人、改善的创新环境以及“笨笨的坚持”。反超需要时间和坚持。“新的范式不再只是‘对话’,而是让每个人真正用AI完成一件具体的事情。”
杨植麟 (Kimi)效率与架构:在算力和数据受限下,通过提升Token效率和长上下文能力突破智能上限。- Scaling Law 是第一性原理。
- 核心指标:Token Efficiency (Muon优化器) 和 Long Context (kimi Linear架构)。
- Agent是搜索问题,更好的基础模型提供更优“先验”,缩小搜索空间。
强调核心突破。指出中国模型已在HLE等核心基准上取得领先。认为中国开源模型正成为新标准制定者,是反超的积极信号。“今天的竞争是‘能源转化效率’的竞赛。” “做模型的过程本质上是在创造一种世界观。”
林俊旸旸 (阿里)通用与落地:打造能听会说、能看会动的全模态通用Agent,服务于真实世界的多样化需求。- 推进多模态(VL、Omni) 和代码能力的深度融合。
- 范式转向基于环境反馈的强化学习。
- 关注长尾需求的解决,这是AGI的真正魅力。
现实乐观 (20%)。承认算力投入结构的差距(美国投研发,中国投交付)。但认为“穷则生变”,可能在软硬结合(芯片与模型协同)和效率优化上找到机会。“AGI就在解(长尾)问题。” “今天干这一行就不能恐惧。”
姚顺雨 (腾讯)分化与务实:冷静分析toB/toC市场分化,关注Agent在真实工作流中创造的价值。- toB是主战场:智能直接转化为生产力,模型强弱分化明显。
- 垂直整合未必最优:toB可能走向模型层与应用层分层的生态。
- 自主学习已是进行时,是数据和任务,而非单纯方法论。
条件乐观。概率取决于:1. 算力瓶颈(光刻机)的解决;2. toB市场/国际商业环境的成熟;3. 主观上能否出现更多引领范式的冒险者。“toB的逻辑和toC将渐行渐远。” “中国最缺的是对不确定性的容忍度和冒险精神。”
杨强 (学者)理论与协作:从学术视角提出基础理论问题(如智能上限、联邦学习),倡导学界与业界协同。- 研究根本问题:智能上限、噪音与学习平衡、持续学习理论(如“睡眠”清噪)。
- 联邦学习是未来方向,实现通用大模型与领域专家模型的协作。


Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2026-1-13 04:50 , Processed in 0.067720 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表