找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 119|回复: 0

AI工具用于药学分析的苦与乐

[复制链接]
发表于 2026-2-13 03:35 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章



一、问题的本质:不是AI不行,是用法不对

最近读到一篇令人拍案叫绝的实战文章:【智园清芬】再见,空之客;你好,空之客.ai作者用Claude Code开发了一个临床数据抓取Skills,与DeepSeek、Gemini、ChatGPT正面PK,结果Skills完胜,而三大模型堪称"幻觉重灾区"。

这篇文章揭示了一个核心矛盾:大模型直接用于专业场景时"一本正经地胡说八道",但经过定制化工程(如Claude Code Skills)后,可以做到纤毫毕现的数据准确性。

问题来了:既然解决方案已经存在,为什么大多数药学研究者还在"幻觉深渊"中挣扎?

答案是:门槛转移了,但没有消失。

二、AIDD的三重门槛

第一重:工具选择的迷宫


当前AI研究工具可以分为三个层次:
层次工具类型典型代表适用场景门槛
对话层通用大模型ChatGPT、DeepSeek、Gemini简单问答、文献摘要低,但幻觉严重
检索层源锚定工具NotebookLM、Perplexity文献综述、引用核实中,需要选好源
定制层Agent/SkillsClaude Code Skills、Manus精准数据抓取、流程自动化高,需要编程思维

NotebookLM的核心优势在于"源锚定"——它只从你上传的文档中回答问题,不会凭空捏造。但正如PubMed上一篇评估文章指出的,NotebookLM的效用很大程度上取决于上传材料的质量和研究者撰写提示词的能力。

而Manus的"Wide Research"则走了另一条路——它能同时部署超过100个AI代理并行处理大规模任务,适合需要横向对比大量数据的场景。

但问题是:对于需要精准抓取临床数据的场景,这些工具都不够。你需要的是原文作者展示的那种"Skills级"定制。
第二重:专业知识的不可替代


原文中最精彩的观察是:Skills能准确区分TEAE和TRAE、分辨不同RAS突变型的数据,而ChatGPT把G12D R1/2这种根本不存在的突变型都"创造"出来了。

这说明什么?AI工具的上限由专业知识决定。

你必须知道:

TEAE和TRAE的区别(Treatment-Emergent vs Treatment-Related)

不同临床试验的分析集设定可能不同

K-M曲线里藏着的mPFS和OS数据如何读取

不同RAS突变型(G12C、G12D、G12V等)的临床意义

没有这些专业判断力,你连AI的输出是否正确都无法判断。
第三重:工程化能力的缺失


原文作者坦言自己是"医药+编程双外行",但用了20小时就开发出了超越三大顶流模型的Skills。

这说明门槛不在"会写代码",而在于:

理解Skills的工作原理(渐进式加载、元数据触发)

能够把专业需求翻译成清晰的指令

愿意迭代调试

三、破局方案:分层解决、工具组合

方案一:Lab Meeting + NotebookLM(面向本科生/研究生组会)


场景:组会文献讨论、论文复现核实

工作流:
    上传原始论文PDF到NotebookLM 让NotebookLM生成"Audio Overview"播客 在组会上播放10分钟音频预热讨论 使用NotebookLM的Q&A功能,现场验证讨论中的关键数字 每个引用都可点击跳转到原文段落

优势:NotebookLM能从复杂文档生成思维导图,可下载用于展示,清晰呈现文档结构和关键概念。这对组会讨论非常实用。

局限:NotebookLM不能搜索新论文,需要配合Litmaps或Consensus使用。

方案二:Deep Research + Skills(面向专业研究者)


场景:竞品分析、临床数据对比、投资研究

这是原文作者使用的方案,核心是Claude Code Skills。Skills可以执行代码,对于需要确定性和高可靠性的任务,让Claude直接运行预先写好的脚本比实时生成代码更高效、更可靠。

开发路径:
    安装Claude Code(npm install -g @anthropic-ai/claude-code) 创建Skills目录:~/.claude/skills/clinical-data-extractor/ 编写SKILL.md,定义:

- 触发条件(何时激活)

- 提取规则(哪些数据点必须抓取)

- 输出格式(Excel表格结构)

4. 迭代测试,用已知数据验证准确性

关键点:写Skills的第一步不是脚本,而是元数据里的名字和描述。这一步没写好,后面内容再完整,Claude也很可能不会用你这个Skills。

方案三:Wide Research + 人工验证(面向大规模筛选)


场景:100个化合物的ADMET对比、50个临床试验的安全性汇总

Wide Research的核心不是拥有更多代理,而是它们如何协作。每个子代理都是完全功能的通用Manus实例,而非预定义角色。

工作流:
    定义任务模板(如:从ClinicalTrials.gov抓取XX期试验的主要终点) 部署100个并行代理 获取结构化输出(Excel/网页) 人工抽样验证10%的数据 对错误模式进行分析,优化提示词

注意:早期独立评测发现Manus存在性能不一致的问题,包括生成模拟数据或陷入循环。因此人工验证环节不可省略。

方案四:社交媒体内容创作(面向BioSpark、LinkedIn、微信公众号)


场景:把专业分析转化为可传播的内容

工具链:

Claude + NotebookLM(研究)



Manus(批量内容生成)



人工编辑(专业把关 + 人格注入)



多平台发布

关键原则:

数字必须人工核实:任何涉及临床数据的数字,发布前必须回溯原始来源

风格必须有人味:原文作者的"堪称绝伦(此处新三梗为刻意设置的人机感检查点)"就是很好的例子

观点必须有立场:AI可以搬运事实,但洞见必须来自人

四、实操建议:从今天开始

对于完全不会编程的研究者

立即开始使用NotebookLM处理文献

学会写好的提示词(比"帮我总结"更具体)

永远记住:AI给的数字,你必须能回溯验证

对于愿意投入20小时学习的人

安装Claude Code

从官方Skills仓库下载skill-creator

参考原文作者的思路,开发你自己领域的Skills

Skills在代码执行环境中运行,具有文件系统访问、bash命令和代码执行功能

对于团队负责人

评估团队中谁适合做"AI工程化"角色

建立Skills共享机制(版本控制)

制定AI辅助输出的验证SOP

五、结语:门槛不会消失,只会转移

回到原文作者的结论:"AI不会降低药物研发的门槛,只会转移门槛的位置。"

我想补充的是:新的门槛在于"翻译能力"——把专业知识翻译成AI能理解的指令,把AI输出翻译成可验证的结论。

这个翻译能力,恰恰是药学研究者的新核心竞争力。
欢迎试一下目前最多使用的get things done工具manushttps://manus.im/invitation/UBPY1ZBNMTAC
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2026-2-13 08:51 , Processed in 0.105518 second(s), 26 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表