找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

查看: 116|回复: 0

AI 能否取代科学家 | AI近思录

[复制链接]
发表于 2026-2-22 17:12 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
先推荐一本书:

w1.jpg

必须是真正聪明的人,才能做出那样的猜测,那是不可能由机器盲目地做出来的

——理查德·费曼《物理定律的本性》

使用Claude-Sonnet-4.6辅助写这篇文章是因为看到油管上“最佳拍档”的一期节目,讨论这个好玩儿的问题,内容如下:
AI for Science的快速发展让我们看到了算法在科学研究中展现的惊人能力,甚至有不少声音宣称超级AI将解决所有的科学问题,终结疾病的困扰,而科学家终将成为历史的尘埃。如今AI的算力和数据处理的能力远超人类,在越来越多的科学任务上,算法的表现都超越了人类的研究者。那未来的科学研究真的还需要人类科学家吗?今天我们就来深入探讨一下这个问题。
首先,我们要先理解当下这种AI将成为万物解释者的论调究竟从哪里而来的。其实,这种对技术的盲目自信并不是AI时代独有的,而是贯穿了人类科技发展的始终,是一种根植于人类认知中的傲慢,总认为我们站在科技发展的顶峰,能够凭借着当下的技术揭开现实的全部奥秘。而在AI时代,这种傲慢以一种看似谦逊的形式呈现。

人们承认人类的记忆和信息处理的能力有限,永远无法穷尽真理,但是却坚信人类作为唯一优越的生物物种,能够创造出穷尽真理的AI技术,让算法成为接替人类的终极科学的解释者。这种认知的诞生离不开AI在科学领域的标志性成就。其中最具代表性的就是Google DeepMind开发的AlphaFold 3。这款模型的训练基础是超过十五万个通过实验确定的蛋白质结构。依托这样的海量数据,AlphaFold 3现在能够预测超过两亿种蛋白质以及其他生物分子的三维结构。这样的规模在几年前是完全无法想象的。
在AlphaFold出现之前,人类依靠数学模型只能够预测蛋白质结构的部分特征,对于复杂的蛋白质折叠问题始终难以形成完整的解决方案。而AlphaFold的出现几乎让蛋白质结构预测难题有了突破性的进展。

也正因如此,人们对AI的科学能力产生了极致的乐观。连蛋白质折叠这样的科学难题,AI都能够轻松的攻克,那还有什么科学问题是AI解决不了的呢?但是事实真的如此吗?答案显然是否定的。在很多深耕蛋白质研究的科学家眼中,蛋白质折叠问题远远没有因为AlphaFold的出现而终结。这款模型的能力依然存在着无法突破的边界。

虽然AlphaFold 3能够精准的预测蛋白质的三维结构,但是它无法解释蛋白质折叠背后的物理机制,无法还原它的折叠路径,也无法描述它的动态构象集合。它能够告诉我们蛋白质是什么样子的,却无法回答蛋白质为什么会成为这个样子。

而且,AlphaFold的优异表现仅局限于地球生物中常见的、由二十多种氨基酸构成的蛋白质。一旦我们将研究视角转向陨石材料中由数百种氨基酸构成的地外蛋白质,或者是想要设计新型的治疗性蛋白质,这款模型就会立刻失效。

而这种失效的原因并不是算法本身的缺陷,也不是模型的扩展性不足,而是这类研究任务所需的基础数据在当下的科学体系中根本不存在。
AlphaFold的案例揭示了一个核心问题:AI在科学领域的应用始终受限于人类已有的科学认知和数据积累。而这也让我们不得不重新思考科学的本质。

如果我们把科学纯粹看作是一套标准化的科学方法:观察、假设、测试、分析,那么AI的自动化操作似乎确实是历史的必然。因为当下的AI算法已经能够在科学家的指导下执行这些步骤中的大部分甚至是全部,而且效率和精度都远远超过人类。

但是问题的关键在于,科学真的只是一套标准化的方法吗?奥地利科学哲学家保罗·费耶阿本德曾经在《反对方法》一书中论证,所谓普适的科学方法本身就是一个错误的概念。

在实际的科学研究中,大多数科学家只有在撰写同行评审论文的时候,才会祭出这套标准化的方法,将它作为确保研究可重复性的手段。而在真正的科学发现过程中,这套方法几乎从来没有被严格的遵循过。

从科学史的角度来看,科学方法从来都是在科学发现之后被构建出来的,而不是在发现之前作为指导原则。这也就意味着,科学的核心从来不是方法的执行,而是更底层的知识生成方式。

所以,判断AI能不能取代科学家,根本不能看AI是不是能够执行观察、假设、测试的这些步骤,而是要追问,科学生成知识的方式是不是在本质上蕴含着某种超越方法论的东西呢?
而这个问题的答案就藏在科学的本质的属性之中。科学的本质并不是现实世界的客观特征,而是一个建立在共识基础上、不断演化的文化体系。

这个结论需要我们从人类的意识认知和科学知识的传播特性两个维度去理解。

首先,人类的个体意识存在着无法逾越的边界。我们每个人的大脑都会通过感官收集物理刺激,将它转化为电信号,再通过不同脑区的处理,构建出属于自己的、对现实的独特的心智模型。这种独特的心智模型就是我们对世界的全部有意识的理解。

尽管当下的神经科学已经发现,同步的神经活动和注意力机制会协调不同脑区的信息,帮助我们构建心智模型,但是分布式的神经活动是如何产生单一的、连贯的意识的呢?这个问题至今仍然是神经科学的开放性问题。更重要的是,人类的主观体验存在着感受质的不可还原性。这是哲学家对于人类私密主观体验的定义,也是科学和个体经验的根本区别。感受质是我们宇宙中最私密的信息,它和每个人物理存在的独特特征紧密的相连,无法在任何其他事物中被复制,也无法在不同的个体之间传递。

举个最简单的例子,当我们看到红色的时候,这种体验是大脑对六百二十到七百五十纳米波长的光的响应。我可以指着一个红色的物体告诉你这是红色,你也会承认自己看到的是红色,但是我们永远无法将自己那种看到红色的实际体验,从自己的意识传输到对方的意识中。我们永远无法知道,彼此感受到的红色是不是同一种内在体验。我们能够在个体之间分享的,只有对红色的描述,而不是红色的体验本身。
这一点直接决定了科学知识的核心特征:主体间性。如果一种事物只存在于一个人的头脑中,无法被他人分享、验证和理解,那么它就永远无法成为科学知识。科学的核心要求就是我们能够在不同的个体之间验证彼此的观察结果,站在过去的科学发现之上,在代际之间达成关于现实的共识。

也正因如此,所有的科学模型都必须能够用符号、数学和语言来表达,因为只有这样,它们才能够在不同的头脑之间被复制和理解,才能成为人类共同的科学知识。而这也就意味着,科学模型从诞生之初,就注定是对现实的抽象和简化,无法完整的反映现实的全部结构。在这里,我们可以引入美国科学哲学家南希·卡特赖特的仿象理论。她认为所有的科学理论本质上都是一种有用的虚构,它们以数学和概念的形式存在,目的是帮助人类组织、预测和操控自然的现象。

换句话说,科学理论本身就是一种人类创造的文化技术。我们以基础的理想气体定律为例,这个定律将气体建模为互不作用的质点,但是我们都知道,现实中的气体分子并不是完全没有体积,也并不是从不相互作用,只是在大多数的研究场景中,理想气体定律的简化模型已经足够的有效,能够帮助我们解释和预测气体的行为。

而这种简化的核心意义,就在于它能够在人类的头脑之间被轻松理解和共享,也能够在我们的计算设备之间被复制和应用。

科学知识的可共享要求,迫使我们在每一个描述层面都创造这样的仿象。而这也让科学呈现出了不稳定的特征,它不是一成不变的客观真理,而是会随着人类新的科学发现、新的认知水平不断演化和适配的文化体系。

牛顿提出的经典力学公式F等于m乘以a就是最典型的例子。牛顿在提出这个公式的时候,并不是在分享他自己对力或者加速度的内在体验,而是创造了一套形式化的表达方式来描述力、质量、加速度这三个抽象概念之间的关系。而这三个概念也是人类在长期的科学研究中通过标准化逐步发展而来的。

这个公式之所以能够成为人类普遍的文化知识,核心原因就是任何人类的头脑,甚至任何的机器,都能理解和应用它,无论它们在内部如何体验这些概念。从这个角度来看,人类的科学研究本质上是一个通过符号和语言将个体的主观体验转化为集体共识知识的过程。
而科学的共同体其实也面临着和人类个体意识相似的问题。就像个体心智会通过收集感官数据构建世界模型一样,科学团体则通过所谓的感知技术来实现这个目标。人类科学的发展始终伴随着感知技术的升级。过去我们依靠望远镜揭示宇宙的深处,依靠放射测年技术揭示地球的地质年代,依靠显微镜观察微观的生物结构。

而如今,AI成为了新的感知技术,帮助我们在海量的数据中发现人类难以捕捉的模式和规律。但是无论感知技术如何升级,科学共识的构建始终是一个人类的社会过程。丹麦天文学家第谷·布拉赫借助机械钟和精密的角度测量仪器完成了精准的天文观测,积累了海量的实证数据。

而德国天文学家约翰内斯·开普勒则在这些数据的基础上,将它转化为了行星椭圆轨道的数学模型。从哥白尼的日心说到第谷的天文观测,再到开普勒的椭圆轨道、伽利略的天文实验,这些科学家的工作共同开启了一个跨越时空收集观测数据的科学社会。

而正是这些个体的研究成果,逐步促成了一种统一的科学共识:我们可以用一套描述运动和引力的理论来解释天体的运行规律。这一过程从来不是某一个体的独立贡献,也不是某一种技术的单独作用,而是人类科学家通过交流、验证、辩论形成的共识结果。这才是科学知识生成的核心逻辑。
理解了科学的本质是建立在共识基础上的文化体系,我们就能够进一步的看清AI在科学领域的应用必然存在着无法突破的固有局限。而这些局限不仅源于技术和算力,更源于计算理论的基本原理以及科学范式的核心特征。

科学范式,用美国科学哲学家托马斯·库恩的话来说,是混乱的、社会性的并且深刻的受到人类的影响。而AI作为人类创造的技术,始终无法脱离人类的认知框架,也无法突破计算理论的基本边界。

首先,当下围绕AI和通用人工智能的乐观讨论往往认为这些算法会在理解和解释世界的能力上超越人类,突破由人类生物学设定的智能上限。但是这个观点和计算理论的基本原理相矛盾。英国物理学家大卫·多伊奇曾经明确表示,如果宇宙确实是可以解释的,那么人类本身就是通用解释者,因为人类能够理解任何计算系统所能理解的内容。

从计算能力的角度来看,计算机和人类的大脑具有等效的通用性。AI的计算能力再强,也只是在执行人类设定的逻辑和算法,无法超越人类的理解边界。

其次,物理学家大卫·沃尔珀特和威廉·麦克雷迪提出的没有免费午餐的定理,更是直接否定了AI能够解决所有科学问题的可能。这个定理指出,当在所有可能的问题上取平均性能的时候,没有任何一种优化的算法(包括机器学习算法)会比其他算法在所有情况下都更优。

换句话说,任何一种AI算法只要在某一类问题上表现得非常出色,就必然会在另一类问题上的表现低于平均水平。AlphaFold 3在蛋白质结构预测上的优异表现,恰恰意味着它在其他非结构预测的生物研究问题上会存在着天然的能力短板。这就是算法的固有属性,无法通过提升算力或者增加数据来改变。
再者,通用计算本身也存在着根本性的限制。通用计算机只能够描述可计算的事物,却永远无法描述不可计算的事物。

这个限制是人类构建的任何计算机都固有的,而这个限制对于单个人类的思维并不适用,它只适用于人类通过语言所共享的内容。

人类的个体思维能够产生超越可计算性的直觉、灵感和想象。而这些内容正是人类生成新的社会知识、推动科学革命的关键。

而科学革命的本质就是托马斯库恩提出的范式转移。当现有的科学概念和表征框架无法解释我们新遇到的现象,甚至无法解释我们试图重新理解的旧现象时,我们的科学共识地图就会崩溃。而此时就需要人类创造新的语义表征和符号框架,来捕捉旧框架无法涵盖的规律。

在这样的时刻,特立独行的思考、脱离既有框架的创造性,在知识创造中起着至关重要的作用。而这正是AI所不具备的能力。

在科学史中,从自然神学到演化论的转变就是一次典型的范式转移。在旧的科学范式中,人们认为生物是由创造者设计的,物种是固定不变的,地球的年龄也相对年轻。而随着人类掌握了碳测定技术、系统发育学并且观察到物种在选择育种和灭绝过程中的变化,我们得以阅读地球和生命更深层的历史,也意识到旧的范式完全无法解释生命的演化规律。于是,演化论应运而生。

地质学揭示了深时间的概念,让我们认识到地球的年龄远超人类想象;天文学则引入了深空间的概念,让我们看到了宇宙的广阔。

正如历史学家托马斯·莫伊尼汉所指出的,我们如今正进入一个揭示宇宙无限可能性的新时代。我们所处的世界并没有突然改变或者变老,但是我们对世界的理解在不断更新。

而这种更新的核心就是人类不断创造全新的词汇和概念,来反映探索世界过程中发现的新意义。

阿尔伯特·爱因斯坦创立广义相对论的过程,更是完美诠释了人类的创造性在范式转移中的核心作用。

从爱因斯坦意识到物理学需要超越狭义相对论中的线性洛伦兹变换,到最终提出广义相对论,中间整整间隔了七年时间。爱因斯坦自己曾经反思,这个过程中最大的困难在于很难将自己从“坐标必须具有直接度量意义”这个观念中解放出来。

当时的物理学界已经将某种数学结构当作模型强加于时空的研究,而这种结构却无法捕捉到爱因斯坦直觉中认为必须存在的特性,也就是时空的连续性。最终,爱因斯坦将自己的这种直觉编码成了新的数学形式。而这套数学的形式也成为了具有主体间性的科学知识,能够在不同的人类心智之间共享和流传,从而推动了物理学的范式革命。

从这些案例中我们能看到,科学范式的转移从来不是技术或者算法的升级,而是人类思维的突破,是人类创造新的表征体系来描述世界的过程。
这也让我们看清了科学研究的两个不同阶段:常态科学和范式革命。常态科学指的是在现有科学范式的基础上,进行技术性精炼和模型优化的过程。而范式革命,则是打破现有的框架、构建新的科学共识的过程。

AI在科学研究中的价值主要体现在常态科学的阶段,而在范式革命的过程中,AI几乎无法发挥任何的核心作用。在常态科学的阶段,我们的世界变得越来越复杂,相应的,也需要更复杂的科学模型。而AI的算力和数据处理能力能够帮助我们在现有的表征框架内进行大规模的模型优化和数据整合。这一点是人类个体无法企及的。

AlphaFold 3的几十亿参数就表明,简洁的描述和简单的规律并不是科学的唯一路径。如果我们希望科学模型能够尽可能紧密的映射世界,那么复杂性可能是必要的。这一点也和逻辑实证主义者奥托·纽拉特、鲁道夫·卡尔纳普以及维也纳学派的观点相一致。

他们认为在科学中没有深度,到处都是表面。

如果我们对一切事物都有着准确而且可预测的模型,那么也许就没有更深层的真理需要揭示。但是这种表面观却遗漏了科学知识创造中的一个深刻特征。

虽然我们创造的科学仿象会不断的变化,但是通过操作符号所揭示的底层模式却会恒久留存。这些模式无法被简单的言说,却独立于我们的语言而顽强的存在。

在科学出现之前,重力的概念对于人类来说是未知的。尽管在整个人类的历史中,我们都和重力有着直接的感官接触,而且人类还继承了在此之前近四十亿年的生命集体记忆,每个物种都能够意识到重力的存在,甚至有些微生物会利用重力来进行导航。

在艾萨克·牛顿给出重力的数学描述之前,我们已经将它视为一种客观的规律。而在爱因斯坦对它进行激进重构之后,这种关于重力的底层认知依然坚如磐石。

从托勒密的行星运动模型到牛顿引力理论的转变完美印证了这一点。

托勒密的模型是研究行星运动时最广泛采用的模型。这个模型从提出到被取代,沿用了大约一千五百年的时间。它采用圆形轨道来描述行星的运动,为了增强预测的能力,还为每个行星添加了本轮,让每个行星在模型中既在小圆上运动又在围绕地球的大圆上运动。而为了进一步提高预测的准确性,科学家们还不断为模型添加了更多的本轮。这个做法,和我们在机器学习模型中添加节点所带来的过拟合风险颇为相似。

而人类最终转向牛顿的引力模型,并不是因为牛顿模型的预测能力更强,而是因为它能够对天体运动进行更全面的解释,将人类在地面上对重力的经验和天体观测中对重力的理解进行了解释性的统一。现代引力的概念正是通过这样的抽象过程被创造出来的。而这个概念也成为了人类科学的核心知识。

我们的物种,人类的科学社会,将永远不会忘记重力的存在,即使用来描述它的符号和模型会在未来发生根本性的变化。

这就是科学的深度。它不在于模型的预测能力,而在于意义的构建,在于人类通过共识性的解读找到世界的底层模式,并且创造出能够共享的表征体系来描述这些模式。
而科学思想的诞生本质上也源于这种共识性的解读,而不是单个科学家的独立创造。

法国文学评论家罗朗·巴特在一九六七年的论文《作者之死》中提出,文本包含的多重层次和意义会超越创作者的原始意图,读者的解读和再创造才是文本意义的核心。这个观点和保罗·费耶阿本德对普适科学方法的反驳如出一辙。而将这个观点应用到科学研究中,我们也可以认为科学家在他们的作品发表的时候就已经死亡了。当科学家发表自己的研究成果时,实际上是将自己的工作提交给科学共同体解读、批评和使用。而这个过程正是科学思想生成的核心。

当下有不少研究试图让AI自动化同行评审的过程,而这种趋势源于一个根本性的误解,认为同行评审仅仅是简单的事实核查。但是实际上,同行评审是科学家之间进行争辩、讨论和共同创造的过程。它为学者们提供了一个机会,让大家能够基于一篇论文,共同创造新的科学成果并以论文为载体加以呈现。这种辩论和共同创造对于科学这个文化体系来说非常重要。只有在经过同行评审的辩论和重构之后,我们才能够进入一个让研究成果的可重复性被验证的阶段。这也就意味着,科学思想从来不是仅仅源于单个科学家的头脑,而是源于科学共同体对这些头脑所创造内容的共识性解读。这是一个典型的社会过程,而不是个体的行为。

而AI模型的输出,对于同行评审这个科学文化的关键环节来说,就像是一具已经死亡的尸体。AI的生成过程缺失了过去四百多年来的人类科学发现模式中由具身化意义促成的创造性行为。当人类科学家提出一个理论的时候,即使在同行评审之前,也存在着一种有意的解释行为。这是科学家和自己的内在直觉、与直觉的表达形式进行内在角力的过程。而这种角力源于科学家的具身化体验,源于他对世界的主观感知和理解。相比之下,AI模型的输出仅仅是通过统计模式识别生成的预测,它没有内在的直觉,没有对世界的主观感知,也没有和自身表达的角力过程。这是一个和人类科学创造完全不同的过程。因此,AI的输出无法成为科学共识构建的起点,因为它缺乏被解读、被批评、被重构的意义基础。
为什么AI永远无法取代人类科学家呢?答案其实已经非常清晰了,总结起来核心在于两个层面的差异:一是表征框架的创造能力,二是意义创造的意向性。

首先,从表征框架的创造能力来看,当前的AI无论算力多强、数据多少,都只能在人类赋予它的表征框架内去运作,只能够在这个框架内进行大规模的优化和扩展,而无法识别现有框架的不完整性,更加无法构建全新的、社会性的和符号性的框架来描述那些之前无法被描述的事物。

而科学革命的核心正是构建新的表征框架。当现有的框架无法解释新现象的时候,人类科学家能够通过直觉、想象、辩论创造出全新的符号和语义体系来捕捉世界的新规律。这是人类独有的能力,迄今为止还没有任何一种AI算法能够实现这一点。

其次,从意义创造的意向性来看,AI缺乏那种始终作为科学解释核心的、意向性的意义创造能力。科学的本质是人类持续进行的、关于我们将共同采用哪些世界描述的协商过程。而这种协商是将个体的观察结果转化为集体的共享意义的主体间性绑定。它本质上是社会性的,需要人类的意向性,也就是人类对世界的主观感知、对意义的主动追求。而AI没有主观感知,没有意向性,它无法理解自己生成内容背后的意义,也无法参与到人类的协商过程中,更无法和人类建立共享表征和共识意义。这也就意味着AI无法参与科学共识构建的主体间过程,而这个过程恰恰是科学的核心。
我们还需要明确的一点是,在考虑AI在科学中的作用时,不应该将单个的AI模型和单个的科学家或者他们的思维进行比较,因为这两者是完全无法比较的。

AI和科学都是人类创造的文化技术,都是人类社会用来组织知识的系统。AI是一种工具,而科学是一个由人类构成的、不断演化的文化体系。将工具和体系进行比较本身就是一种范畴错误。

我们真正需要追问的不是AI能不能取代科学家,而是AI技术和科学的文化体系将如何互动呢?AI将在科学共识的构建过程中又会扮演怎样的角色呢?

目前来看,AI在科学体系中的角色依然是辅助性的。它能够整合前所未有的大量观测数据,能执行假设检验,能够在大规模数据集中识别模式,也能够在人类个体无法企及的规模上进行预测。这些能力能够让AI在常态科学的阶段发挥重要作用,帮助人类科学家提高研究效率,优化研究模型,让人类能够将更多的精力投入到范式革命的思考中。但是AI永远无法成为科学体系的核心,因为科学的核心是人类的共识,是人类对世界的意义构建。而这一点,是AI永远无法实现的。
而我们当下所处的AI时代,正是科学的乱纪元。随着AI的发展,人类的科学认知会不断被刷新,新的现象、新的问题会不断出现,范式转移也会变得越来越频繁。在这样的背景下,人类科学家作为意义构建者和共识协商者的职责非但没有被削弱,反而变得更加重要和沉重。AI的出现让科学研究的重点发生了转移,从单纯的数据分析,转向了在更大的社会框架里通过广泛沟通来构建人和人之间的共识。

正如气象科学家不再仅仅需要分析数据和构建模型,还需要向大众宣传环境和气候的相关知识,推动社会形成气候行动的共识;脑科学家也不再仅仅需要设计实验和验证理论,还需要更多的参与科普,破除大众对脑科学的误解,让脑科学的研究成果被更广泛的理解和应用。而这些需要主体间性的工作,因为AI缺乏人类的具身化体验,缺乏对世界的主观感知,注定是无法完成的。

这也就意味着,在AI时代,人类科学家的价值不是降低了,而是提升了。科学家不再是单纯的数据分析师,而是成为了科学意义的构建者和科学共识的推动者。而这种能力,不仅是人类独有的,也是AI永远无法取代的。

那么,AI会改变科学吗?答案是肯定的,它会深刻重构科学研究的方式,让科学研究效率得到质的提升。但是AI会取代科学家吗?答案可能永远是否定的。因为科学的本质从来不是预测和自动化,而是人类为了理解现实共同构建、辩论和精炼符号表征的过程,是人与人之间获得的共识。

而只要人类对世界的探索从未停止,人类科学家的价值就永远无法被取代。

下面以“原文”指代上面的内容。

AI 能否取代科学家

一、从感知工具到认知假肢:一个更深的技术哲学框架

原文将 AI 定位为科学共同体的新型"感知技术",这个比喻是有洞见的,但还可以推进得更远。我们需要区分三种不同层次的工具:延伸人类感官的工具(望远镜、显微镜)、延伸人类计算能力的工具(计算机、统计软件),以及如今的 AI——一种试图延伸人类认知推理本身的工具。前两类工具的界限是清晰的,人类始终是意义的最终赋予者;而第三类工具模糊了这条界限,并因此引发了我们今天讨论的一切混乱。

这种混乱的根源,在于我们将"模拟认知的能力"与"拥有认知"混为一谈。哲学家迈克尔·波兰尼(Michael Polanyi)在 1966 年提出了隐性知识(tacit knowledge)的概念,他有一句名言:我们知道的永远比我们能说出来的多(we can know more than we can tell)。骑自行车的技能、认出一张熟人的脸、物理学家对方程"美感"的直觉判断——这些知识无法被完整地编码成符号,也无法通过阅读教科书来获得,只能通过亲身实践、在具体情境中被"默会"。

这对 AI 科学能力的判断具有根本性的含义。科学家在进行真正创造性工作时,调用的恰恰是大量这种无法被语言化的隐性知识:对实验直觉的把握、对理论"感觉不对"的敏感、对同行论文言外之意的理解。AlphaFold 接受训练的数据,全都是已经被语言化和形式化的显性知识。它学到的,是这些显性知识所能表达的一切——而那些推动科学革命的、无法言说的知识,对它而言永远是不透明的。

二、哥德尔的幽灵:计算能否穷尽真理

原文引用了大卫·多伊奇关于"人类是通用解释者"的论断,以及沃尔珀特的"没有免费午餐定理"。这两个论点都非常有力,但我们还可以往下挖到一个更基础的层面——哥德尔不完备性定理对 AI 科学能力的深远含义。

1931 年,库尔特·哥德尔证明了,在任何足够强大的形式公理系统内部,总存在一些命题,它们在该系统中既不能被证明也不能被证伪,但却是真实的。这不是一个关于人类智力局限的定理,而是关于形式系统本身的内在限制。哥德尔还证明,一个系统无法在自身内部证明自身的一致性。

这对 AI 意味着什么?任何 AI 系统,其底层必然是某种形式计算系统。它在操作符号、进行推理时,都在一个被明确定义的形式框架内运作。哥德尔告诉我们,这个框架必然是不完备的——总有一些关于现实的真实命题,是这个框架无法触及的。更关键的是,AI 系统本身无法从内部识别这些命题在哪里,因为这种识别需要"跳出"系统之外的视角。

而人类科学家恰恰能够做到这件事。当爱因斯坦意识到经典力学的坐标系假设存在深层问题时,他正是在"跳出"当时物理学的形式框架,从外部审视这个框架的边界。这种元认知能力——对自身所处认知框架的反思和质疑——和哥德尔定理揭示的那种"从外部看清系统不完备性"的能力,在结构上是同构的。而这正是 AI 目前无法实现的。

图灵停机问题(Halting Problem)提供了另一个互补的视角。图灵在 1936 年证明,不存在任何通用算法,能够判定任意程序在给定输入下是否会停止运行。这意味着计算系统对自身行为的完整预测能力存在内在的边界——无论算力多强,某些问题的答案就是无法通过计算来预先确定的。科学探索在本质上面对的,正是这类不可预先计算的问题。如果科学的前沿可以被算法预先锁定,那它就不再是前沿了。

三、溯因推理:科学发现的核心逻辑为何对 AI 是封闭的

原文对科学方法论的批判主要借助了费耶阿本德的"反对方法",但科学发现的逻辑还有一个更精确的哲学入口,那就是美国哲学家查尔斯·桑德斯·皮尔斯(C. S. Peirce)提出的溯因推理(abduction)概念。

皮尔斯区分了三种推理形式:演绎(从规则推到结果)、归纳(从案例推到规则)和溯因(从结果推到最佳解释)。溯因的逻辑形式是:"我们观察到一个令人惊讶的现象 C;如果假设 H 为真,C 就是理所当然的;因此,有理由相信 H 是真的。"这是一种"推测到最佳解释"的过程,是科学假设生成的核心机制。

溯因推理有几个关键特征,使其对 AI 构成根本挑战。首先,它不是算法性的——没有规则可以告诉你什么样的假设是"最佳解释",这需要创造性的想象力和对现实整体的感知。其次,溯因是开放域的(open-world),它要求推理者能够考虑到目前知识体系之外的可能性,而 AI 的推理是在训练数据所构成的封闭域(closed-world)内进行的。一个只见过地球生物的 AI,在面对一个全新的宇宙现象时,它的"最佳解释"只能从已知的概念库中检索和拼凑,而不能真正生成全新的概念框架。

诺贝尔化学奖得主、物理学家理查德·费曼曾说,物理学的关键不是计算,而是猜测(the key is guessing)——他说的"猜测"指的正是溯因推理的那种直觉性飞跃。科学史上最重要的假设——日心说、进化论、量子力学——在最初提出时,都是对当时可用证据的"过度推断",是超越了演绎和归纳所能支撑的创造性跳跃。而这种跳跃,目前没有任何 AI 系统能够自主实现。

四、具身认知:科学理解的身体基础

原文触及了感受质(qualia)和主体间性,但还可以从具身认知(embodied cognition)的角度进一步深化这个论点。

莫里斯·梅洛-庞蒂(Maurice Merleau-Ponty)在《知觉现象学》中论证,人类的认知根本上是具身的——我们不是通过一个脱离肉体的纯粹理性来理解世界,而是通过我们的身体、通过身体与世界的直接接触来构建理解。我们对空间的理解来自我们能够在空间中运动;我们对力量的理解来自我们能够施加力量;我们对时间的理解来自我们在时间中存在并会死去这一事实。

认知语言学家乔治·莱可夫和马克·约翰逊在《我们赖以生存的隐喻》中用大量实证研究证明,即使是最抽象的概念,也深深植根于身体经验。"理论有坚实的基础"、"论证是建筑"、"时间在流逝"——这些不仅仅是修辞,而是揭示了抽象概念借助身体经验进行意义建构的方式。物理学中的"力"、"场"、"波"、"能量",这些概念的认知基础无不来自人类的身体感知。

这对 AI 的科学理解能力构成了一个深层挑战:一个没有身体、从未经历重力、从未感受热冷、从未在时间中诞生和衰亡的系统,是否真的"理解"了描述这些现象的科学理论?还是说,它只是精通了这些理论在语料库中的符号使用规律?原文中关于 AlphaFold 能预测蛋白质结构却无法解释折叠机制的例子,或许正是这种"无根基的符号理解"的一个具体体现。

弗朗西斯科·瓦雷拉、艾文·汤普森和埃莉诺·罗施在《具身心智》中更进一步,提出了生成认知(enactivism)的理论:认知不是对外部世界的内部表征,而是有机体与环境持续互动中生成的意义。科学家的直觉,往往正是这种长期具身实践积累的生成性理解——在实验室里花了十年时间与某种生物分子"摔打"的生物学家,拥有的不只是对该分子数据的了解,而是一种几乎可以称之为"与分子的关系"的东西,这种关系无法被数据集和参数所取代。

五、科学知识社会学:科学的政治性维度

原文对科学共识构建过程的描述非常清晰,但还缺少一个重要维度——科学知识社会学(Sociology of Scientific Knowledge, SSK)所揭示的科学的政治性和权力性

布鲁诺·拉图尔和史蒂夫·伍尔加在《实验室生活》中通过对索尔克研究所的民族志研究发现,科学事实并不是被"发现"的,而是在实验室的日常实践、仪器选择、写作策略、同行关系中被"建构"出来的。一篇论文要成为科学知识,需要经历一系列社会性操作:说服审稿人、获得引用、进入教科书、变成后续研究的背景假设。这是一个充满谈判、修辞和权力的过程,而不是客观事实自动凝结为公共知识的过程。

这个视角揭示了 AI 在科学体系中的另一个根本局限:AI 可以生成论文,但它无法进行科学政治(scientific politics)。一个重要的科学结论,往往不是因为逻辑上最严密而胜出,而是因为它被合适的人在合适的时机以合适的方式提出和推广。哥白尼的日心说在提出后半个多世纪仍然处于边缘,直到伽利略将它变成了一场公共运动。达尔文在发表《物种起源》之前,花了二十年时间积累社会资本和证据,因为他深知这个理论将面对的阻力有多大。

更深层的问题是,科学共同体的共识本身受到资助结构、制度利益、文化偏见和意识形态的深刻影响。女性主义科学哲学家海伦·朗基诺(Helen Longino)和伊夫琳·福克斯·凯勒(Evelyn Fox Keller)指出,科学知识的生产从来不是价值中立的——什么问题值得研究、什么样的解释被认为"令人满意"、什么样的数据被认为"相关",这些都受到研究者的社会位置和文化背景的影响。这意味着科学共识的构建不仅需要认识论能力,还需要对这种权力关系的批判性反思,而这是 AI 无法实现的。

当我们考虑用 AI 自动化同行评审时,这个问题就变得尤为严峻。同行评审不只是质量过滤,它也是科学政治的战场——在这里,新范式受到挑战,旧秩序进行抵抗,异见被压制或被接纳。一个 AI 审稿人会系统性地偏向已有范式,因为它的判断标准来自已有文献的统计模式。这不只是降低效率,而是可能在制度层面扼杀范式革命的可能性。

六、反常与危机:AI 为何无法引发科学革命

库恩在《科学革命的结构》中有一个细节,原文没有深入展开,但对我们的分析至关重要:科学革命的触发点通常不是某个重大的新发现,而是反常(anomaly)的积累——那些在现有范式下无法被解释、长期被主流忽视或被强行纳入既有框架的数据点。

反常的识别是一种极其微妙的认知活动。它要求科学家在两种相互矛盾的倾向之间保持张力:一方面,要有足够的框架内知识,才能识别哪些现象是真正"奇怪"的;另一方面,要有足够的独立性,才能拒绝用"临时性假设"将反常强行塞进旧框架。历史上大多数反常在被认识到其革命性意义之前,都曾被长期忽视:迈克尔逊-莫雷实验的"零结果"在 1887 年就已出现,但物理学界花了将近二十年才开始认真对待它;普朗克在提出量子假设时,自己也以为这只是一个临时的数学技巧,而不是一场革命的开端。

AI 对反常的态度是结构性的保守。它的损失函数(loss function)驱动它将输出最大化地拟合已知数据,这意味着它系统性地倾向于将反常解释为噪声或异常值,而不是潜在革命的种子。更根本的是,AI 无法产生那种"感觉哪里不对"的不适感——正是这种不适感驱动科学家穷追不舍,直到现有框架崩塌,新的理解诞生。量子力学的先驱们几乎都描述过那种深刻的认知不适:牛顿力学明明在宏观上完美运作,但微观现象就是无法被纳入其中,这种紧张感折磨了他们数十年,最终催生了整个量子理论体系。

七、自我指涉的悖论:AI 研究 AI 的认识论困境

原文没有触及一个在当下 AI 时代极为重要的反思性问题:当我们用 AI 来研究 AI 本身时,会遭遇什么样的认识论困境?

这不是一个假设性的未来场景,而是已经发生的现实。神经网络的可解释性研究(interpretability research)、AI 安全领域的对齐研究,都在某种程度上使用 AI 工具来分析 AI 系统的行为。而这里潜伏着一个深层的自我指涉问题:一个系统在其自身认知框架内研究自身的认知框架,能够得到完整和准确的结论吗?

哥德尔不完备性定理在这里再次显现其影响。一个形式系统无法证明自身的一致性——同样地,一个 AI 系统研究其自身行为时,必然受到其自身训练偏见和认知限制的约束,而它无法从内部识别这些限制的全貌。这意味着,对 AI 系统的深层理解,最终仍然需要人类科学家从系统外部介入,以人类的意义框架来诠释AI 的行为模式。

这个悖论具有深远的实践意义。随着 AI 系统变得越来越复杂,"理解 AI 在做什么"本身正在成为一个重大的科学问题。而这个问题的解决,不能依赖 AI 自己,因为它缺乏那种能够质疑和颠覆自身认知框架的元认知能力。人类科学家在这里不仅没有被取代,反而被推向了一个前所未有的认识论前沿——他们必须在完全陌生的认知景观中,为一种非人类的智能形式建构理解框架。

八、意义、叙事与目的性:科学的人文维度

保罗·利科尔(Paul Ricoeur)在其叙事哲学中论证,人类理解世界的方式根本上是叙事性的——我们不只是积累事实,而是将事实编织成具有开端、发展和意义的故事。科学理论也不例外:一个好的科学理论不只是能够准确预测,它还要能够"讲述一个故事",解释为什么世界是这个样子,而不是别的样子。

自然选择理论之所以如此强大,不只是因为它能预测种群遗传频率的变化,更是因为它提供了一个关于生命如何在时间中演变的宏大叙事,这个叙事重构了人类对自身起源和位置的理解。广义相对论之所以超越托勒密体系,不只是因为它的预测更精确,而是因为它提供了一个更深层、更统一的关于时空本质的故事。

这种叙事性和目的性是人类特有的认知方式。人类是唯一会追问"为什么"而不仅仅是"怎么样"的物种——我们不只想知道蛋白质是什么结构,还想知道它为什么是这个结构、这个结构的演化意义是什么、它在生命的宏大故事中扮演什么角色。这种追问驱动了从生物化学到演化生物学的连接,从粒子物理学到宇宙学的贯通。AI 可以在每个局部问题上做出精准的预测,但它无法产生那种驱使科学家将不同领域的知识整合进一个统一意义框架的冲动,因为这种冲动来自于人类对自身存在意义的追问。

九、教育、传承与科学文化的再生产

科学的延续不只依赖于发表论文,还依赖于一套复杂的文化传承机制。每一代科学家不只是学习前人的知识,还在导师与学生的关系中、在实验室的日常实践中、在会议的非正式交流中,习得那些无法被写进教科书的隐性知识——如何设计实验、如何判断一个结果是否"可信"、如何在错误的尝试中保持坚持、如何培育在不确定性中前行的勇气。

这种文化传承的载体是人与人之间的关系,而不是数据传输。波兰尼将这种学习方式描述为"跟随大师"(following a master)——学生不只是接受信息,而是通过模仿和内化,获得一种共同的感知世界的方式。科学家的养成,在根本上是一种文化社会化的过程,而不是信息下载的过程。

AI 无法参与这种文化再生产。它可以作为一个工具被纳入科学教育,但它无法成为一个导师,因为导师的本质不只是知识的传递者,更是一种"科学家的存在方式"的示范者。当我们允许 AI 越来越多地承担科学研究的执行功能时,我们真正需要警惕的风险之一,是这种文化传承链条的断裂——未来的科学家可能越来越少地经历那种艰难、迷路、坚持和顿悟的完整过程,而这个过程恰恰是科学家最核心的能力的来源。

十、一个综合性的框架:科学生态系统与 AI 的正确位置

综合以上所有维度,我们可以提出一个比原文更为精细的框架来理解 AI 在科学中的位置。科学不应该被理解为一条线性的知识生产流水线(观察→假设→验证→理论),而应该被理解为一个多层次的生态系统,在这个生态系统中,不同的认知活动在不同的层次上相互依存、共同演化。

在这个生态系统中,数据层(收集、整合、清洗大量观测数据)和模式层(在高维数据中识别统计规律)是 AI 可以发挥主导作用的领域;而解释层(为模式构建因果机制)、框架层(创造新的概念和符号体系)、共识层(在科学共同体中通过辩论形成集体理解)和意义层(将科学知识嵌入人类的整体意义框架),则是人类科学家不可或缺的领域。

关键的危险在于层次错位——将 AI 在数据层和模式层的能力误认为对解释层和框架层的能力,从而让科学基础设施逐渐向 AI 依赖转移。这种层次错位一旦发生,科学共同体就可能丧失产生范式革命的能力:越来越多的人力被从常态科学的数据工作中解放出来,但解放出来的人却没有接受过进行范式革命所需要的完整训练,因为那种训练正是在常态科学的"笨工作"中积累的。

尾声:乱纪元的真正挑战

原文将当下称为"科学的乱纪元",这个概念非常有力。但它所描述的混乱,不只是知识更新速度加快带来的挑战,更是一场关于科学本质的深层身份危机:当一个工具能够完成越来越多我们以为只有科学家才能完成的工作时,我们是否还清楚地知道科学家是什么、科学是什么?

这场身份危机的解决,不能依赖技术本身给出答案。它需要科学家、哲学家、科学社会学家和整个社会共同进行一次反思:我们真正珍视的是什么——是关于世界的准确预测,还是人类对世界深层意义的共同理解?是让知识生产速度最大化,还是让参与知识生产的人类心智得到充分的发展和滋养?

哥德尔、波兰尼、皮尔斯、梅洛-庞蒂、库恩、卡特赖特和拉图尔,这些来自不同传统的思想家从不同角度汇聚向同一个结论:科学不是一台可以被更高效机器替代的知识生产机器,而是人类存在方式的一部分——是我们通过集体的理性努力去理解自己在宇宙中位置的方式。这种努力的主体,注定是并将永远是人类自己。AI 能够让这种努力走得更远、看得更清,但它无法替代这种努力本身存在的理由。

w2.jpg

人的思想确实略大于宇宙

但人的脚步要从地面开始

    AI近思录

    智能重构教育:迈向AI时代的四所先锋学校及其核心特征进化报告

    如何设计短视频,才可以逆转大脑腐烂?—"大脑腐烂"不是网络梗,是神经科学现实

    用进化的人工智能,发展活跃的人类智慧——云端论剑访谈录

    AI作业批改机:高科技包装下的认知倒退

    AI疯牛病,可能很快就来了

    AI,灵媒还是弱智

    AI学习助理来了,教师准备好了吗?

    动画教学视频:避免反审美伪情境造成假理解真遮蔽
    有此一点灵明,人的思想便略大于整个宇宙
    一分钟设计出大单元、大概念和大任务教案智能与智慧的边界:人类存在之思
    当2024的AI获得诺奖,2025的教育将会如何ChatGPT发布两周年:思与行、对与错校长的“AI领导力”,从辨别真假AI开始 | AI近思录校长的AI领导力2:选购AI时的“4F原则”| AI近思录技术是什么?它将走向何方? | AI近思录与AI共生 | 《教育新语:人工智能时代教什么,怎么学》AI时代的生涯探索——《哲学、世界、人生》课程期末思考问卷AI融合的“教育工程学”-用进化的人工智能,培养活跃的人类智慧DeepSeek没有显著提高AI的智能水平,它的意义是推动技术平权 |AI近思录从雅典城的奴隶到AI代理:从“生存危机”到“存在危机” | AI近思录一个短期预测:智能体与教育:从被动到陪伴的三阶段 | AI近思录人工智能时代的教育模式:从竞争思维到共生思维教育和学习将发生的变革 | 人工智能发展现状及近期趋势应当的并且可行的,能最大限度“使人成为人”的教育形态是怎样的?-1应当的并且可行的,能最大限度“使人成为人”的教育形态是怎样的?-2AI时代的教育变革:从"教学"回归"教育"本质OpenAI的“学习模式”不会颠覆教育,但AI会导致教育的本质性变革AI时代,我们的孩子为什么还要去上学 | 教育近思录为什么我要让老师们"一字不差"地执行流程 | 教育近思录去山间吃花,在课中听雨 | 教育近思录“防贼式”赛课,赛不出老师真正的专业能力 | 教育近思录精英教育和自我教育 智能时代和空心时代 | 教育近思录我们如何让每个孩子都能够享受到精英教育 | 教育近思录孩子为什么不喜欢阅读,如何让孩子喜欢阅读 | 教育近思录AI时代的“双重导师”算法:温度×专业×技术 |教育近思录"二手专家"和真专家:在AI时代重新思考专业能力教育乘AI:教育与人工智能的融合算法"试错"不是随意犯错,而是“受控混乱”的武器 | 教育近思录深入实施“人工智能+”,深在哪儿?解析中国AI战略下的教育转型AI与教育融合的“最后1米问题”:真问题与真融合 | AI近思录越是为了妈妈高兴而优秀的孩子,越有可能为了寻找自我而自伤
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2026-2-23 08:11 , Processed in 0.119293 second(s), 31 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表