使用Claude-Sonnet-4.6辅助写这篇文章是因为看到油管上“最佳拍档”的一期节目,讨论这个好玩儿的问题,内容如下:
AI for Science的快速发展让我们看到了算法在科学研究中展现的惊人能力,甚至有不少声音宣称超级AI将解决所有的科学问题,终结疾病的困扰,而科学家终将成为历史的尘埃。如今AI的算力和数据处理的能力远超人类,在越来越多的科学任务上,算法的表现都超越了人类的研究者。那未来的科学研究真的还需要人类科学家吗?今天我们就来深入探讨一下这个问题。
首先,我们要先理解当下这种AI将成为万物解释者的论调究竟从哪里而来的。其实,这种对技术的盲目自信并不是AI时代独有的,而是贯穿了人类科技发展的始终,是一种根植于人类认知中的傲慢,总认为我们站在科技发展的顶峰,能够凭借着当下的技术揭开现实的全部奥秘。而在AI时代,这种傲慢以一种看似谦逊的形式呈现。
原文将 AI 定位为科学共同体的新型"感知技术",这个比喻是有洞见的,但还可以推进得更远。我们需要区分三种不同层次的工具:延伸人类感官的工具(望远镜、显微镜)、延伸人类计算能力的工具(计算机、统计软件),以及如今的 AI——一种试图延伸人类认知推理本身的工具。前两类工具的界限是清晰的,人类始终是意义的最终赋予者;而第三类工具模糊了这条界限,并因此引发了我们今天讨论的一切混乱。
这种混乱的根源,在于我们将"模拟认知的能力"与"拥有认知"混为一谈。哲学家迈克尔·波兰尼(Michael Polanyi)在 1966 年提出了隐性知识(tacit knowledge)的概念,他有一句名言:我们知道的永远比我们能说出来的多(we can know more than we can tell)。骑自行车的技能、认出一张熟人的脸、物理学家对方程"美感"的直觉判断——这些知识无法被完整地编码成符号,也无法通过阅读教科书来获得,只能通过亲身实践、在具体情境中被"默会"。
这对 AI 科学能力的判断具有根本性的含义。科学家在进行真正创造性工作时,调用的恰恰是大量这种无法被语言化的隐性知识:对实验直觉的把握、对理论"感觉不对"的敏感、对同行论文言外之意的理解。AlphaFold 接受训练的数据,全都是已经被语言化和形式化的显性知识。它学到的,是这些显性知识所能表达的一切——而那些推动科学革命的、无法言说的知识,对它而言永远是不透明的。
二、哥德尔的幽灵:计算能否穷尽真理
原文引用了大卫·多伊奇关于"人类是通用解释者"的论断,以及沃尔珀特的"没有免费午餐定理"。这两个论点都非常有力,但我们还可以往下挖到一个更基础的层面——哥德尔不完备性定理对 AI 科学能力的深远含义。
这对 AI 意味着什么?任何 AI 系统,其底层必然是某种形式计算系统。它在操作符号、进行推理时,都在一个被明确定义的形式框架内运作。哥德尔告诉我们,这个框架必然是不完备的——总有一些关于现实的真实命题,是这个框架无法触及的。更关键的是,AI 系统本身无法从内部识别这些命题在哪里,因为这种识别需要"跳出"系统之外的视角。
而人类科学家恰恰能够做到这件事。当爱因斯坦意识到经典力学的坐标系假设存在深层问题时,他正是在"跳出"当时物理学的形式框架,从外部审视这个框架的边界。这种元认知能力——对自身所处认知框架的反思和质疑——和哥德尔定理揭示的那种"从外部看清系统不完备性"的能力,在结构上是同构的。而这正是 AI 目前无法实现的。
原文对科学方法论的批判主要借助了费耶阿本德的"反对方法",但科学发现的逻辑还有一个更精确的哲学入口,那就是美国哲学家查尔斯·桑德斯·皮尔斯(C. S. Peirce)提出的溯因推理(abduction)概念。
皮尔斯区分了三种推理形式:演绎(从规则推到结果)、归纳(从案例推到规则)和溯因(从结果推到最佳解释)。溯因的逻辑形式是:"我们观察到一个令人惊讶的现象 C;如果假设 H 为真,C 就是理所当然的;因此,有理由相信 H 是真的。"这是一种"推测到最佳解释"的过程,是科学假设生成的核心机制。
溯因推理有几个关键特征,使其对 AI 构成根本挑战。首先,它不是算法性的——没有规则可以告诉你什么样的假设是"最佳解释",这需要创造性的想象力和对现实整体的感知。其次,溯因是开放域的(open-world),它要求推理者能够考虑到目前知识体系之外的可能性,而 AI 的推理是在训练数据所构成的封闭域(closed-world)内进行的。一个只见过地球生物的 AI,在面对一个全新的宇宙现象时,它的"最佳解释"只能从已知的概念库中检索和拼凑,而不能真正生成全新的概念框架。
诺贝尔化学奖得主、物理学家理查德·费曼曾说,物理学的关键不是计算,而是猜测(the key is guessing)——他说的"猜测"指的正是溯因推理的那种直觉性飞跃。科学史上最重要的假设——日心说、进化论、量子力学——在最初提出时,都是对当时可用证据的"过度推断",是超越了演绎和归纳所能支撑的创造性跳跃。而这种跳跃,目前没有任何 AI 系统能够自主实现。
这对 AI 的科学理解能力构成了一个深层挑战:一个没有身体、从未经历重力、从未感受热冷、从未在时间中诞生和衰亡的系统,是否真的"理解"了描述这些现象的科学理论?还是说,它只是精通了这些理论在语料库中的符号使用规律?原文中关于 AlphaFold 能预测蛋白质结构却无法解释折叠机制的例子,或许正是这种"无根基的符号理解"的一个具体体现。
这个视角揭示了 AI 在科学体系中的另一个根本局限:AI 可以生成论文,但它无法进行科学政治(scientific politics)。一个重要的科学结论,往往不是因为逻辑上最严密而胜出,而是因为它被合适的人在合适的时机以合适的方式提出和推广。哥白尼的日心说在提出后半个多世纪仍然处于边缘,直到伽利略将它变成了一场公共运动。达尔文在发表《物种起源》之前,花了二十年时间积累社会资本和证据,因为他深知这个理论将面对的阻力有多大。
更深层的问题是,科学共同体的共识本身受到资助结构、制度利益、文化偏见和意识形态的深刻影响。女性主义科学哲学家海伦·朗基诺(Helen Longino)和伊夫琳·福克斯·凯勒(Evelyn Fox Keller)指出,科学知识的生产从来不是价值中立的——什么问题值得研究、什么样的解释被认为"令人满意"、什么样的数据被认为"相关",这些都受到研究者的社会位置和文化背景的影响。这意味着科学共识的构建不仅需要认识论能力,还需要对这种权力关系的批判性反思,而这是 AI 无法实现的。
当我们考虑用 AI 自动化同行评审时,这个问题就变得尤为严峻。同行评审不只是质量过滤,它也是科学政治的战场——在这里,新范式受到挑战,旧秩序进行抵抗,异见被压制或被接纳。一个 AI 审稿人会系统性地偏向已有范式,因为它的判断标准来自已有文献的统计模式。这不只是降低效率,而是可能在制度层面扼杀范式革命的可能性。
AI 对反常的态度是结构性的保守。它的损失函数(loss function)驱动它将输出最大化地拟合已知数据,这意味着它系统性地倾向于将反常解释为噪声或异常值,而不是潜在革命的种子。更根本的是,AI 无法产生那种"感觉哪里不对"的不适感——正是这种不适感驱动科学家穷追不舍,直到现有框架崩塌,新的理解诞生。量子力学的先驱们几乎都描述过那种深刻的认知不适:牛顿力学明明在宏观上完美运作,但微观现象就是无法被纳入其中,这种紧张感折磨了他们数十年,最终催生了整个量子理论体系。
七、自我指涉的悖论:AI 研究 AI 的认识论困境
原文没有触及一个在当下 AI 时代极为重要的反思性问题:当我们用 AI 来研究 AI 本身时,会遭遇什么样的认识论困境?
这不是一个假设性的未来场景,而是已经发生的现实。神经网络的可解释性研究(interpretability research)、AI 安全领域的对齐研究,都在某种程度上使用 AI 工具来分析 AI 系统的行为。而这里潜伏着一个深层的自我指涉问题:一个系统在其自身认知框架内研究自身的认知框架,能够得到完整和准确的结论吗?
哥德尔不完备性定理在这里再次显现其影响。一个形式系统无法证明自身的一致性——同样地,一个 AI 系统研究其自身行为时,必然受到其自身训练偏见和认知限制的约束,而它无法从内部识别这些限制的全貌。这意味着,对 AI 系统的深层理解,最终仍然需要人类科学家从系统外部介入,以人类的意义框架来诠释AI 的行为模式。
这个悖论具有深远的实践意义。随着 AI 系统变得越来越复杂,"理解 AI 在做什么"本身正在成为一个重大的科学问题。而这个问题的解决,不能依赖 AI 自己,因为它缺乏那种能够质疑和颠覆自身认知框架的元认知能力。人类科学家在这里不仅没有被取代,反而被推向了一个前所未有的认识论前沿——他们必须在完全陌生的认知景观中,为一种非人类的智能形式建构理解框架。
这种文化传承的载体是人与人之间的关系,而不是数据传输。波兰尼将这种学习方式描述为"跟随大师"(following a master)——学生不只是接受信息,而是通过模仿和内化,获得一种共同的感知世界的方式。科学家的养成,在根本上是一种文化社会化的过程,而不是信息下载的过程。
AI 无法参与这种文化再生产。它可以作为一个工具被纳入科学教育,但它无法成为一个导师,因为导师的本质不只是知识的传递者,更是一种"科学家的存在方式"的示范者。当我们允许 AI 越来越多地承担科学研究的执行功能时,我们真正需要警惕的风险之一,是这种文化传承链条的断裂——未来的科学家可能越来越少地经历那种艰难、迷路、坚持和顿悟的完整过程,而这个过程恰恰是科学家最核心的能力的来源。
十、一个综合性的框架:科学生态系统与 AI 的正确位置
综合以上所有维度,我们可以提出一个比原文更为精细的框架来理解 AI 在科学中的位置。科学不应该被理解为一条线性的知识生产流水线(观察→假设→验证→理论),而应该被理解为一个多层次的生态系统,在这个生态系统中,不同的认知活动在不同的层次上相互依存、共同演化。
在这个生态系统中,数据层(收集、整合、清洗大量观测数据)和模式层(在高维数据中识别统计规律)是 AI 可以发挥主导作用的领域;而解释层(为模式构建因果机制)、框架层(创造新的概念和符号体系)、共识层(在科学共同体中通过辩论形成集体理解)和意义层(将科学知识嵌入人类的整体意义框架),则是人类科学家不可或缺的领域。
关键的危险在于层次错位——将 AI 在数据层和模式层的能力误认为对解释层和框架层的能力,从而让科学基础设施逐渐向 AI 依赖转移。这种层次错位一旦发生,科学共同体就可能丧失产生范式革命的能力:越来越多的人力被从常态科学的数据工作中解放出来,但解放出来的人却没有接受过进行范式革命所需要的完整训练,因为那种训练正是在常态科学的"笨工作"中积累的。