找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 102|回复: 0

AI的“想象力”:什么是更适合AI的范式

[复制链接]
发表于 2026-1-7 20:26 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
拙见,期待讨论
和光同尘


最近听到一个观点,“人总是在教AI做事,那么这种做事方式真的适合AI吗?”

人们常把AI比作十分有见识的小孩子,虽然什么都知道,却也什么不了解。想要做一个专用Agent,就要把自己脑子里面的专业知识、专业流程,统统告诉AI,而后让它“理解”,并“反馈”。

这里提到关于“理解”和“反馈”的概念。

AI的“理解”,是将输入的语句进行拆分,拆分的词有不同的ID,每一个ID对应着一个高维向量,高维向量的每一个维度又对应着不同的特征。AI输入这些向量以及不同词之间的位置关系,进行多层分析,判断上下文内容,确保得到高可能性的某种表示。这样精细的拆分、映射、分析、反复确认之后,AI就认为,自己已经得到了最切实的表示。

而AI的“反馈”,是基于模型的最优算法以及数据训练,判断这个字后面最大概率或者较大概率应该出现的是哪一个字,把这些字连起来,就组成了一句话,即一句反馈。

从“理解”到“反馈”的整个过程都是经过精心编排的,即便AI并不“理解”这句话的“含义”,但人可以读懂语意,也就是可以理解这个“从无数来源于人的话语中,按照固定规则,组合而成的人能理解的一句话”。于是人就可以说,AI“理解”了我的意思,“反馈”给我的话恰恰也证明了这一点。

所以AI的理解,是在数据量足够大,训练结果足够准确的情况下,得出的最优/较优结果。AI认定自己“理解”的准确,并能够按照它“理解”的方式进行“反馈”。这也是claude code执行的方式。人们说它“聪明”,“有自己的想法”,我觉得也正是因为这一点。事实上,AI也的确靠着这一点收获了绝大多数人的信赖,也就是,通用大模型(llm)的受众。

那么回到最开始的问题,人把自己脑子里的专业知识/流程告诉AI,并让它“理解”、“反馈”,这一套方法对于llm来说,受用吗?

对于llm来说,它仍然需要进行同样的“理解”和“反馈”,只不过这次可能输入的量格外大、格外宽广,为了更好的进行反馈,它选择读取更多外部知识库(RAG)进行“理解”、利用一系列工具(MCP/Skill/Agent等)进行“反馈”,但这仅仅是在外部进行加码,并没有改变它底层的做事逻辑。

所以AI究竟适合一种什么样的做事方法,或者说,Agent究竟应该如何被搭建呢?

按照当前的逻辑,人应该输入给Agent十分详细的TodoList,减少不必要词语的理解误差,避免扰乱注意力。亦或者是,要给AI足够全面的信息,这样它才能“理解”全部信息,并“反馈”出更全面、结构化的回答。

但AI是这样被设计的吗?

AI被设计为“理解”人的输出,并根据最优/较优路径进行“反馈”。

这一流程似乎只存在量的变化。而在量产的庞大黑盒中,如思维链之类的“质变”竟也涌现。包含大量思维的数据被吸纳和包含,于是它也学会了连接这些复杂思维文本之间的相关关系,最终反馈成“质变”。

可从始至今的目标仅有“推测下一个词”。

在这一过程中可控的似乎只有词表和规则。

所以AI究竟适合怎样做事呢?

一个偏执的、全能的、被框住的人,要如何做事呢?

忽而想到一个词,“顺势而为”。

AI或许是一幅画里很大的留白,如果添置太多笔墨,只会显得臃肿、没有结构。AI的优势在于发散、普适,这的确是一个小孩子的特性,犹如一张白纸,如果被框住,只会失去想象力。

但Agent总是需要专而精,专注单个任务的实现,提高任务执行的精度和准度,从整体流程上看,不需要的恰恰就是非资本市场下的“想象力”。而在某一个环节的“创新”、“发现”、“分析”,恰恰需要的是这些“想象力”。

所以如果想要做专而精的Agent,或许md驱动的方式一开始就错了。

那需要想象力的环节呢,这些环节如何让AI发挥它最大的能力呢?

从人的执行逻辑来看,“想象力”似乎不需要强加规定。只需要有任务、工具、约束,就可以随意操控路径了。就像小孩子画画,要有“我要画画”的任务,要有画笔工具,要有一张白纸作为起点,要用在纸上画作为约束。中间是如何画的,画成什么样子,似乎都不重要。而“不重要”的意思是,“不知道”。

那么AI呢,AI的“想象力”来源于什么?可想而知,是庞大的数据黑盒,量的超级积累造就了规则之下的不可控分支。AI的“想象力”和人一样,也是一个黑盒。而人面对这个黑盒,总是缺少全面的认知。

因为人总是有限的,越有知,就越无知。要以有知控无知,无异于蚍蜉撼树,不自量力。AI在知识量上,称得上是一棵参天大树,它的有限在于硬件,因此可以近似于无限。

那么从这个角度,Agent的专而精是谬论吗?专业的人能够为无限的知识做补充吗。答案是可以的,因为数据有界,形似垄断。

所以专人只是补充了被垄断的知识流,试图从“规则”,而不是“数据”的角度,让AI“学会”。

llm仍然基于未被垄断的数据而诞生,而被垄断的数据,却沉淀成为了“规则”,限制llm本身能力的同时,也限制了Agent的实现。

但资本不会共享数据,llm也无法再增加如此大头的数据量了。

那是不是能换一种方法,把“垄断知识库”,做成RAG(Retrieval-Augmented Generation,检索增强生成)的形式,AI仍然需要读取这些规则,但这并非以“规则”的形式,而是以知识的形式呈现呢?

RAG的概念可以理解为,存在一个外部知识库,即垄断知识库,AI会把接收到的问题转化为向量,通过向量之间的高相似性进行知识库的检索,如果存在高相关的文档,就把文档中最相关的文字片段与原问题相结合。这样AI接收到的就不仅仅是一个普适的泛问题,而是结合了专精知识库的可见问题。

或者如果有更激进的方式,把新增的垄断知识库,作为训练数据的高权重补充,AI仍然按照原有设定的理解方式进行“理解”,只不过在高权重训练数据的影响下,这一AI已经成为类Agent了。

如果是这样的话,人只需要提供包含规则的垄断知识库,以及一个好问题就可以。

这看起来似乎和最开始的“提供规则限制”从而生成Agent的方式没有太大不同,只不过AI从“读取规则”,变成了“检索知识”。而这些被检索的高权重知识的量,与llm真实的训练数据量相比,不值一提。

但这对数据的要求也变得更高。垄断知识库要充分证明它的值得垄断性,而不是一堆废铁包含的金元素。

由此,AI的黑盒就逐渐变灰,人也能通过提问的方式,就像和一个普适llm聊天一样,聊出一个Agent。

但这也不一定是最优解。就像蒸汽机被发明出来的时候,纺织厂只是把水车换成了蒸汽机,而没有想到,蒸汽机可以摆脱水环境。

拙见如此,期待日后的发展。

w1.jpg

w2.jpg

w3.jpg

w4.jpg

这个猫猫叫泡泡,她打翻了我的可乐,并不以为意。
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2026-1-9 19:50 , Processed in 0.086354 second(s), 30 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表