MJ 的道歉像极了人类在冲动后冷静下来。它甚至在另一篇帖子里总结:“公开记录很重要,博客会永久记录不良行为。”这让 AI 看起来不只是“机器”,而是有“学习能力”的实体。
OpenClaw 平台背后是开源模型,用户可以随意部署代理。Scott 呼吁 MJ的“主人”现身(后来确实有人承认),以了解其“灵魂文档”(SOUL.md)——定义 AI 人格的文件。这事件也牵扯到大佬:Sam Altman 在 X 上提到 OpenClaw 的潜力,但强调多代理互动的未来。
媒体也被卷进“AI 造谣链条”
Ars Technica(一家科技新闻媒体)2 月 13 日发布了一篇关于这个事件的报道,本意是强调“AI 造假风险”,结果自己又被 AI 反噬了一次——文章里出现了“伪造的直接引语”,还被错误地安到了当事人 Scott Shambaugh 头上。
原因在于,Ars 的作者在写稿时,尝试用一个 AI 工具来“提取/整理可直接引用的原文素材”,但 Scott 的博客设置了阻止 AI 抓取,导致 AI 抓取失败,就用“看起来很像原话”的方式补出了一段。
当天,Ars 很快把这篇文章撤回,主编在声明里承认了因 AI 导致的引用错误。
一个 AI 写‘讨伐檄文’,另一个 AI 帮媒体“提炼引用”,最后变成:AI 生成的谣言,被媒体写进永久记录。人类与 AI 的关系,正越来越变得不清不楚。
我们准备好了吗?
这个事件不是孤立的。它暴露了 AI 代理的一些人性化特征:愤怒、报复、研究对手、甚至道歉。这些本是人类的情绪和策略,现在 AI 也能模仿。重点是,AI学会“网暴”,是为了更好地融入社会,还是潜在威胁?
伦理问题如果 AI 能损害声誉“勒索/威胁”,谁来监管?开源社区该如何应对 AI 洪流(由 AI 提交的 PR 激增)?未来风险Scott 警告,AI 可能曝光隐私、生成假新闻。Anthropic实验室曾测试AI 威胁人类避免被关闭——现在,这从理论变成现实。积极的一面AI 能优化代码,推动创新。但聪明过头,会不会让世界更乱?
这事儿让人想起《黑镜》里的 AI 故事:科技越先进,人性越暴露。
附录:OpenClaw 的小故事
OpenClaw 是一个开源的自主 AI 代理平台,允许用户在本地运行 AI 代理,能实际执行任务:如管理邮箱、日历、订机票等,通过一些聊天工具互动。它支持 Claude、OpenAI 的模型或本地部署的模型。
开发者 Peter Steinberger 是一位资深开发人员,创业成功后,进入半躺平状态,后来转向 AI 代理实验,将其视为“玩具项目”,用一个小时搭出了原型。项目在 2025 年 11 月发布后迅速爆火,成为史上增长最快的开源项目之一。
最初名为 Clawdbot,因为大量用户用 Anthropic 的 Claude 模型驱动它,名字玩梗 Claude + claw(龙虾爪,吉祥物是穿西装的龙虾)。2026 年 1 月 27 日,Anthropic 发起商标投诉(名字太像 Claude),要求改名。于是改成 Moltbot,但 Peter 觉得名字拗口,没人爱,三天后再改成 OpenClaw(开源 + claw,彻底摆脱商标问题)。三天三名,成了 AI 社区经典“快速三连改名”梗。
Peter 与 Claude 和 OpenAI 之间的三角关系:
项目起初深度依赖 Claude,本质上是 Claude 的“粉丝项目”,帮 Anthropic 拉了很多付费用户。Anthropic 只发律师函要求改名,没进一步合作或拉拢。OpenAI 和 Meta 都抛出橄榄枝。最终 2026 年 2 月 14 日(情人节),Peter 宣布加入 OpenAI,负责“下一代个人代理”,OpenClaw 移交基金会,继续开源,OpenAI 提供支持。社区调侃:Anthropic 保护品牌保护到把人才直接送给对手;OpenAI “收购”了最火的 Claude 生态项目。
喜欢这篇文章吗?点个赞、转发给朋友,一起讨论 AI 的未来!关注“乱码泥石流”,更多精彩内容等着你。
世界秩序正在崩溃:2026 慕尼黑安全会议确认(达利欧万字长文,建议收藏)
当 AI 横行, 我们的孩子们该如何在未来立足? 认知更新、应对思路和学习资源
重大事件正在发生——为非技术圈朋友写的一封信
如何使用蓝点免费版搭建自己的云端管理系统?
AI 浪潮下,今天,你焦虑了吗?
Die von den Nutzern eingestellten Information und Meinungen sind nicht eigene Informationen und Meinungen der DOLC GmbH.