Claude 1M上下文取消溢价、六巨头推光互连标准:AI的管道正被激进重构
Anthropic这次做了一件定价上的大事:Claude Opus 4.6和Sonnet 4.6的100万token上下文窗口全面开放,不再收取长上下文溢价,不再有200K以上的beta限制,速率也和普通请求拉齐。把一个大型代码仓库、完整合同集或几十万字的日志一次性塞进上下文,现在的成本和处理一封邮件没有本质区别。
Anthropic公布了两个关键基准数据:Opus在MRCR v2(长程多轮检索)达到78.3%,Sonnet在GraphWalks BFS(1M token图遍历)达68.4%。这两个测试考察模型在极长上下文中能否真正读到深处的信息,而不是靠位置偏见找答案。数字不完美,但足以说明1M不只是营销数字。
78.3%
Opus / MRCR v2 (1M)
68.4%
Sonnet / GraphWalks BFS
600张
单次多模态上限
同一天,NVIDIA、AMD、博通、OpenAI、Meta、微软联合成立OCI MSA光互连联盟,目标制定与协议无关的数据中心光互连开放规范,瞄准3.2Tb/s及以上的光PHY,支持可插拔光模块、板载光与共封装光学CPO。现有NVLink、UALink等不同协议将共用同一光学基础设施。
把这两件事放在一起:一边是AI模型可消费的上下文窗口在继续扩张,一边是GPU之间传输数据的物理管道也在往同一方向追。铜互连的瓶颈是带宽、功耗和距离——OCI MSA的逻辑是用光纤把这三个问题一起解决,让scale-up域从200Gbps往更大规模跨越。
核心逻辑:上下文窗口和互连带宽是同一条技术曲线的两端。前者决定AI能一次处理多少信息,后者决定多个GPU能以多快速度协同处理。Anthropic把1M上下文从高级用法变成开发者的默认选项;六家巨头联手推光互连标准,则是在为下一个量级的算力集群铺路。