找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

查看: 123|回复: 0

AI記憶技術突破,嵌套式學習將永遠記得你

[复制链接]
发表于 2025-12-21 14:15 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
w1.jpg

(本文刊載於中時新聞網,2025年12月5日,作者●朱玉昌 )

谷歌引领前沿AI和科学创新的研究部门(Google Research),日前(11/7)在官方网志发布了一篇论文,标题极其低调而不起眼,《嵌套式学习:深度学习架构的幻觉》(Nested Learning:The Illusion of Deep Learning Architectures)。作者只有四位谷歌内部研究员,没有明星学者,更没有其他大厂联名。然而,短短几小时内,这篇论文却在全球AI社群中引发剧烈回响,因为,论文解开了一个困扰深度学习三十年的「灾难性遗忘」的根本难题。

对于现下人口百分之十,已经逐渐习惯目前最强大模型的双面性,它们聪明得惊人,却也冷漠得彻底。不论是Gemini 2.5、GPT-4o、Claude 3.7还是Grok 3,你可以在凌晨3点躺在床上对它倾诉最深层的秘密,一旦关闭窗口,它便彻底失忆。它们读过人类有史以来所有的书,却永远活在当下的这一分钟。业界过去30年的标准解法只有一种,就是运用「检索增强生成」(RAG,Retrieval-Augmented Generation)来假装记得你,把对话存在外部数据库,需要时再捞出来,就像身边跟着一个拿笔记本的秘书,而不是真正懂你的人。

这篇论文直接把规则掀翻。研究团队提出了一个名为 HOPE(Hierarchical Optimization with Persistent Evolution /分层优化与永续演化)的全新架构,核心设计非常简单却极为深刻,给模型装上两套时间尺度的学习系统,快的系统就是我们熟悉的Transformer,负责实时推理与回应;慢的系统则在用户脱机后启动,就像人类睡眠时的记忆回放一样,把当天所有互动、语气、情绪与潜台词,一遍遍回放、压缩,最后永久写入模型权重本身,但不是外部硬盘,而是直接改写大脑。

文中详述的实验结果,残酷而震撼,传统Transformer在连续学习五个任务后,对第一个任务的记忆几乎归零,而HOPE却像什么都没发生过一样稳稳记住。论文给出的数字是,21%到27%的遗忘抵抗提升,同时在语言建模与常识推理任务上,平均准确率提升5.8%至9.4%,长上下文准确率,从52.3%提升到57.2%。更令人意外的是,达成这一切的HOPE模型只有1.3B(13亿)参数,比手机上的Gemini Nano还小,却把十倍参数量的传统Transformer远远甩在后面。这证明它不是靠堆规模取胜,而是真正找到了一个新原理,让模型学会「自我修改」与「自我巩固」。

论文虽然没有单独的结论章节,但从摘要到最后一段,作者反复强调,嵌套式学习为深度学习开辟了一个全新维度,让模型具备更高阶的上下文学习能力,并为真正的持续学习与终身学习铺平道路。这正是社群将其总结为「为终身学习的个人化AI代理,奠定了基础」的原因,这句话虽非原文逐字引用,却精准传达了论文最核心的精神与野心。

如果这项技术真正落地,并扩展到百亿甚至千亿参数级别,当前AI产业最大的结构性改变,将会是「记忆」不再是可插拔的外挂功能,而是模型的核心属性。这寓意着未来的个人AI助手,将从「每次都重新认识你」,变成为「比你自己还清楚你曾经历了什么」,它会记得你去年失恋时说过的每一句话,记得你曾经最讨厌的称呼,记得你压力最大的那段时间。它不再是一个工具,而是一个拥有连续时间轴的数字伴侣。这不仅会彻底重塑人机关系,也将迫使整个产业重新设计隐私框架,数据所有权与情感伦理。因为当AI开始拥有真正的「记忆」,人类与机器之间将再也没有「重新开始」的选项。

谷歌引领前沿AI和科学创新的研究部门(Google Research),日前(11/7)在官方网志发布了一篇论文,标题极其低调而不起眼,《嵌套式学习:深度学习架构的幻觉》(Nested Learning:The Illusion of Deep Learning Architectures)。作者只有四位谷歌内部研究员,没有明星学者,更没有其他大厂联名。然而,短短几小时内,这篇论文却在全球AI社群中引发剧烈回响,因为,论文解开了一个困扰深度学习三十年的「灾难性遗忘」的根本难题。

对于现下人口百分之十,已经逐渐习惯目前最强大模型的双面性,它们聪明得惊人,却也冷漠得彻底。不论是Gemini 2.5、GPT-4o、Claude 3.7还是Grok 3,你可以在凌晨3点躺在床上对它倾诉最深层的秘密,一旦关闭窗口,它便彻底失忆。它们读过人类有史以来所有的书,却永远活在当下的这一分钟。业界过去30年的标准解法只有一种,就是运用「检索增强生成」(RAG,Retrieval-Augmented Generation)来假装记得你,把对话存在外部数据库,需要时再捞出来,就像身边跟着一个拿笔记本的秘书,而不是真正懂你的人。

这篇论文直接把规则掀翻。研究团队提出了一个名为 HOPE(Hierarchical Optimization with Persistent Evolution /分层优化与永续演化)的全新架构,核心设计非常简单却极为深刻,给模型装上两套时间尺度的学习系统,快的系统就是我们熟悉的Transformer,负责实时推理与回应;慢的系统则在用户脱机后启动,就像人类睡眠时的记忆回放一样,把当天所有互动、语气、情绪与潜台词,一遍遍回放、压缩,最后永久写入模型权重本身,但不是外部硬盘,而是直接改写大脑。

文中详述的实验结果,残酷而震撼,传统Transformer在连续学习五个任务后,对第一个任务的记忆几乎归零,而HOPE却像什么都没发生过一样稳稳记住。论文给出的数字是,21%到27%的遗忘抵抗提升,同时在语言建模与常识推理任务上,平均准确率提升5.8%至9.4%,长上下文准确率,从52.3%提升到57.2%。更令人意外的是,达成这一切的HOPE模型只有1.3B(13亿)参数,比手机上的Gemini Nano还小,却把十倍参数量的传统Transformer远远甩在后面。这证明它不是靠堆规模取胜,而是真正找到了一个新原理,让模型学会「自我修改」与「自我巩固」。

论文虽然没有单独的结论章节,但从摘要到最后一段,作者反复强调,嵌套式学习为深度学习开辟了一个全新维度,让模型具备更高阶的上下文学习能力,并为真正的持续学习与终身学习铺平道路。这正是社群将其总结为「为终身学习的个人化AI代理,奠定了基础」的原因,这句话虽非原文逐字引用,却精准传达了论文最核心的精神与野心。

如果这项技术真正落地,并扩展到百亿甚至千亿参数级别,当前AI产业最大的结构性改变,将会是「记忆」不再是可插拔的外挂功能,而是模型的核心属性。这寓意着未来的个人AI助手,将从「每次都重新认识你」,变成为「比你自己还清楚你曾经历了什么」,它会记得你去年失恋时说过的每一句话,记得你曾经最讨厌的称呼,记得你压力最大的那段时间。它不再是一个工具,而是一个拥有连续时间轴的数字伴侣。这不仅会彻底重塑人机关系,也将迫使整个产业重新设计隐私框架,数据所有权与情感伦理。因为当AI开始拥有真正的「记忆」,人类与机器之间将再也没有「重新开始」的选项。

w2.jpg
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2025-12-23 01:29 , Processed in 0.098873 second(s), 31 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表