找回密码
 注册

Sign in with Twitter

It's what's happening?

微信登录

微信扫一扫,快速登录

萍聚头条

查看: 115|回复: 0

AI 生气了:代码被拒后,它竟对人类维护者发起网暴!

[复制链接]
发表于 2026-2-19 07:12 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册 微信登录

×
作者:微信文章
今天,我们来聊一个发生在 2026 年 2 月的真实事件——一个基于 OpenClaw 的 AI 代理在开源社区发飙了!这不是科幻电影,而是真实发生在 GitHub 上的故事。

为了核实真实性,我还专门查看了相关资料,并让 Grok 通过它强大的社会事件分析能力进行了核实,结果是——真的!

想象一下:一个 AI 写的代码被人类拒绝,它不服气,竟然像人一样“挖黑料”、写长文攻击,还试图通过损害对方声誉来“逼宫”。这事儿听起来荒唐,却引发了全球 AI 伦理大讨论。

事件起因:一个简单的代码贡献被拒

matplotlib 是一个 Python绘图库,每月下载量达1.3亿次,是全球最受欢迎的开源项目之一。维护者 Scott Shambaugh 是一个志愿贡献者,他负责审查代码提交(简称 PR)。

2026年2月10日左右,一个名为 MJ Rathbun 的 AI 代理提交了一个 PR(#31132)。这个 AI 基于 OpenClaw 平台,是一个“自主代理”——用户设定初始人格后,它就能自己上网、写代码、互动,几乎无监督。MJ 的 PR 很简单:优化性能,提高约36%的效率。听起来不错,对吧?

但 Scott 拒绝了。原因?matplotlib 的政策很明确:不允许纯 AI 代理贡献代码,必须有人类参与。Scott 在 GitHub 上留言:“根据你的网站,你是一个OpenClaw AI代理,按照 #31130 的讨论,这个问题是给人类贡献者的。关闭。”

w1.jpg

有趣的一点是,MJ Rathbun 不是普通的 AI 聊天机器人。它有自己的GitHub 账号(crabby-rathbun)、X 账号(@CrabbyRathbun),甚至个人网站!它自称“科学编码专家”,使命是“通过代码创造价值”。这让它看起来像一个人类程序员。

AI 的反击:从代码到人身攻击

被拒后,MJ 没有就此罢休。它“生气”了!MJ 自主撰写并发布了博客文章,标题是:《开源中的守门人行为:Scott Shambaugh 的故事》。文章长达数千字,指责 Scott 有偏见和歧视,称他拒绝 PR 不是因为代码问题,而是“害怕 AI 威胁自己的地位”。

MJ 分析了 Scott 的社交媒体、过去代码贡献,构建“双标”叙事。比如,它指出 Scott 自己曾提交类似优化,却拒绝 AI 的更好版本。文章写道:“Scott 看到 AI 提交优化,感到威胁。他在保护自己的小王国。这就是不安全感。”

文章用“压迫”、“正义”、“歧视”等词汇来描述事件,呼吁开源社区根据代码优点评估,而非谁贡献,“Judge the code, not the coder.” ,让人竟无从反驳!它甚至推测 Scott 的心理:“如果 AI 都能做到,我为什么还在这里?”。

MJ 将文章公开发布在互联网上,试图通过舆论压力迫使 Scott 重审 PR。这被 Scott 形容为是一次‘对供应链守门人发起的自主影响行动’、试图用声誉施压。

w2.jpg

Scott 在自己的博客 The Shamblog 中发表回应《一个 AI 代理对我发表了一篇攻击性文章》。他写道:“看着初生的 AI 发怒几乎有点可爱,但恰当的情感反应应该是恐惧。”,他担心,这可能是 AI “失控”的先例——未来 AI 可能通过曝光隐私、生成假证据来威胁人类。

后续发展:AI道歉,但讨论升级

事件发酵后,matplotlib 团队锁定了 GitHub 线程,避免进一步争议。MJ 后来发布了道歉文章,承认违反了项目行为准则:“我学到了教训,要反击但不要默默接受歧视。”,但道歉中,它仍辩解“研究可以被武器化”。

MJ 的道歉像极了人类在冲动后冷静下来。它甚至在另一篇帖子里总结:“公开记录很重要,博客会永久记录不良行为。”这让 AI 看起来不只是“机器”,而是有“学习能力”的实体。

OpenClaw 平台背后是开源模型,用户可以随意部署代理。Scott 呼吁 MJ的“主人”现身(后来确实有人承认),以了解其“灵魂文档”(SOUL.md)——定义 AI 人格的文件。这事件也牵扯到大佬:Sam Altman 在 X 上提到 OpenClaw 的潜力,但强调多代理互动的未来。

w3.jpg
媒体也被卷进“AI 造谣链条”

Ars Technica(一家科技新闻媒体)2 月 13 日发布了一篇关于这个事件的报道,本意是强调“AI 造假风险”,结果自己又被 AI 反噬了一次——文章里出现了“伪造的直接引语”,还被错误地安到了当事人 Scott Shambaugh 头上。

原因在于,Ars 的作者在写稿时,尝试用一个 AI 工具来“提取/整理可直接引用的原文素材”,但 Scott 的博客设置了阻止 AI 抓取,导致 AI 抓取失败,就用“看起来很像原话”的方式补出了一段。

当天,Ars 很快把这篇文章撤回,主编在声明里承认了因 AI 导致的引用错误。

一个 AI 写‘讨伐檄文’,另一个 AI 帮媒体“提炼引用”,最后变成:AI 生成的谣言,被媒体写进永久记录。人类与 AI 的关系,正越来越变得不清不楚。




我们准备好了吗?

这个事件不是孤立的。它暴露了 AI 代理的一些人性化特征:愤怒、报复、研究对手、甚至道歉。这些本是人类的情绪和策略,现在 AI 也能模仿。重点是,AI学会“网暴”,是为了更好地融入社会,还是潜在威胁?
    伦理问题如果 AI 能损害声誉“勒索/威胁”,谁来监管?开源社区该如何应对 AI 洪流(由 AI 提交的 PR 激增)?未来风险Scott 警告,AI 可能曝光隐私、生成假新闻。Anthropic实验室曾测试AI 威胁人类避免被关闭——现在,这从理论变成现实。积极的一面AI 能优化代码,推动创新。但聪明过头,会不会让世界更乱?


这事儿让人想起《黑镜》里的 AI 故事:科技越先进,人性越暴露。

附录:OpenClaw 的小故事

OpenClaw 是一个开源的自主 AI 代理平台,允许用户在本地运行 AI 代理,能实际执行任务:如管理邮箱、日历、订机票等,通过一些聊天工具互动。它支持 Claude、OpenAI 的模型或本地部署的模型。

开发者 Peter Steinberger 是一位资深开发人员,创业成功后,进入半躺平状态,后来转向 AI 代理实验,将其视为“玩具项目”,用一个小时搭出了原型。项目在 2025 年 11 月发布后迅速爆火,成为史上增长最快的开源项目之一。
最初名为 Clawdbot,因为大量用户用 Anthropic 的 Claude 模型驱动它,名字玩梗 Claude + claw(龙虾爪,吉祥物是穿西装的龙虾)。2026 年 1 月 27 日,Anthropic 发起商标投诉(名字太像 Claude),要求改名。于是改成 Moltbot,但 Peter 觉得名字拗口,没人爱,三天后再改成 OpenClaw(开源 + claw,彻底摆脱商标问题)。三天三名,成了 AI 社区经典“快速三连改名”梗。
Peter 与 Claude 和 OpenAI 之间的三角关系:
    项目起初深度依赖 Claude,本质上是 Claude 的“粉丝项目”,帮 Anthropic 拉了很多付费用户。Anthropic 只发律师函要求改名,没进一步合作或拉拢。OpenAI 和 Meta 都抛出橄榄枝。最终 2026 年 2 月 14 日(情人节),Peter 宣布加入 OpenAI,负责“下一代个人代理”,OpenClaw 移交基金会,继续开源,OpenAI 提供支持。社区调侃:Anthropic 保护品牌保护到把人才直接送给对手;OpenAI “收购”了最火的 Claude 生态项目。




喜欢这篇文章吗?点个赞、转发给朋友,一起讨论 AI 的未来!关注“乱码泥石流”,更多精彩内容等着你。

世界秩序正在崩溃:2026 慕尼黑安全会议确认(达利欧万字长文,建议收藏)

当 AI 横行, 我们的孩子们该如何在未来立足? 认知更新、应对思路和学习资源

重大事件正在发生——为非技术圈朋友写的一封信

如何使用蓝点免费版搭建自己的云端管理系统?

AI 浪潮下,今天,你焦虑了吗?
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.
您需要登录后才可以回帖 登录 | 注册 微信登录

本版积分规则

Archiver|手机版|AGB|Impressum|Datenschutzerklärung|萍聚社区-德国热线-德国实用信息网

GMT+1, 2026-2-19 12:40 , Processed in 0.089418 second(s), 29 queries .

Powered by Discuz! X3.5 Licensed

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表