另一条支线来自 OpenAI Codex:一头连着本地 Codex CLI(强调“轻量、脚本化、在你机器上跑”),一头连着 Codex Web / IDE 集成(把并行执行与仓库上下文搬到云端)。这种“本地自治 + 云端加速”的双轨设计,等于把可执行代理做成了一个可扩展的通用底座,既顺着当下 CLI 的热度,又为之后的系统级协同留出了增长曲线。
综上,今年项目“火爆”的共同逻辑并不神秘:谁把执行闭环做得最顺、最可插拔,谁就最容易赢得团队侧的采用。CLI 之所以成为主战场,是因为它把“可组合(脚本/管道)”“可治理(权限/审计/观测)”“可迁移(接现有工具链)”三点合而为一;而开源项目之所以在这一波里占优势,则在于它们更容易成为“标准拼装件”:既能接入 IDE 与 Web 工作台(例如前一年流行起来的 bolt.new 这类“对话→可跑应用”的入口),又能下沉到 CI/CD 的底层执行。接下来,胜负将更多取决于上下文理解与工具生态(谁更懂你的代码资产)、推理与稳定性(复杂改动能否一把过)、以及开放与成本(是否便于团队规模化落地)。
针对近几年如火如荼的 AI Coding 领域,市场侧也给出背书,根据 The Business Research Company 的数据,全球 AI 编程工具市场规模预计将从 2024 年的 62.1 亿美元增长至 2029 年的 182 亿美元,对应 CAGR 为 24.0%。某种意义上,这是“渗透率 + 客单价 + 组织级复用”的合力。
因此,它更适用于需要“默认协作”的组织,希望让代理围绕 PR/Issue 工作,而不是只在本地 IDE 里“帮我写点代码”。不过,值得注意的是,与 IDE 内部深度上下文的体验相比,CLI/CI 形态对“细粒度编辑体验”的可视反馈较少,必要时可与 Cline/Continue 这类 IDE 代理搭配使用;
AI Coding 迭代极快,如果不把这些项目放进统一的技术坐标,很容易陷入“今天谁加了新按钮”的比较,而忽视了会决定长期护城河的层次。同时由于模型侧“降维打击”来得更快(榜单换代、推理升级、本地化增强),只有把能力拆到层上,才能在模型换代时替换最上游的一层,而不是推倒重来。因此,为了防止过度追逐热点项目导致失焦,我们把 AI Coding 拆解为五层堆栈: