1. GPT-5.5 把编码成本压低近 40%,顶级模型竞争开始从“更强”转向“更省”
发生了什么:GPT-5.5 上线后,开发者普遍反馈其编码任务表现强于 Claude Opus 4.7,而且 token 消耗减少接近 40%,一些团队因此转向 Codex 体系。
为什么重要:过去大模型发布,最容易被放大的指标是跑分和主观“聪明程度”;但在编码、Agent 和企业调用场景里,真正决定采购和迁移的往往不是天花板能力,而是单位任务成本。40% 的 token 降幅意味着同样预算下可以跑更多轮 agent 规划、更多代码修复回合,也意味着原本只在高价值任务里勉强成立的自动化,现在可能进入中等价值、但高频的工程流程。模型厂之间的战场,正在从“谁最像全能选手”变成“谁能把强能力做成便宜的基础服务”。
具体细节:这次反馈里最关键的不是一句“更聪明了”,而是两件事同时成立:一是开发者认为其编码能力可压过 Claude Opus 4.7,二是成本侧出现接近 40% 的压缩。二者叠加,才会带来工具下载量激增和工作流迁移。这里还可以和AI 公司盈利新路径那篇文章放在一起看:当外部 API 市场越来越卷、切换成本越来越低,真正的利润空间会被迫向“高频内部使用”或“深嵌业务流程”转移。GPT-5.5 的意义,就是把这种挤压提前摆在所有厂商面前:性能优势如果不能转化成更低的单位产出成本,就很难形成持久护城河。