随着 AI 能力的指数级增长,致命性自主武器系统(LAWS)从科幻走向现实的风险正急剧升高。与此同时,原本作为 AI 安全“守门人”的头部科技公司,却在商业竞争与地缘政治压力的双重夹击下,悄然放弃了手中的安全钥匙。本文综述了 AI 自主武器的技术现状、伦理困境,以及 Anthropic、OpenAI 等公司在政策上的重大转向,揭示了人类正面临的技术失控与监管真空的双重危机。
潘多拉魔盒:
AI 自主武器的现实逼近
AI 自主武器系统(LAWS),俗称“杀手机器人”,是指能够通过传感器和算法独立识别、追踪并摧毁目标的武器系统 。
联合国多次就 LAWS 展开辩论,核心争议在于:AI 能否在生死决策中遵守国际人道法(IHL)?目前普遍共识是,核武器的最终授权必须由人类控制,但常规武器领域的自主化边界正迅速模糊 。一旦 AI 获得“自主开火权”,将面临误伤平民、算法偏见、黑客劫持以及无法追责的“责任空洞”等严峻挑战 。
守门人的退场:
AI 公司的安全承诺为何瓦解?
Anthropic 曾被视为 AI 安全的最后良心,其 RSP(负责任扩展政策)曾承诺“除非能保证安全,否则绝不训练模型”。然而,在 2024 年发布的 RSP 3.0 中,这一硬性红线被软化。2026年2月,美国国防部要求Anthropic解除其AI模型Claude在军事机密系统中的安全限制,Anthropic同意放宽部分使用限制,但保留了禁止将AI用于大规模监控和致命性自主武器两条红线。
钥匙已交:
谁将掌控未来?
AI 一旦具备自主 AI 研发能力(ASL-4 标准),将可能自我迭代,彻底脱离人类控制 。模型在化学、生物、放射性和核武器(CBRN)领域的知识门槛被突破,使得非国家行为体获取大规模杀伤性武器变得容易 。