Claude 1M上下文全面开放、美芯片禁令草案撤回、Meta Avocado推迟且拟裁员20%
AI基础设施扩张 · 算力地缘博弈 · 大厂内部撕裂
- 深度一:Claude把整仓代码一次读完变成标配,六巨头光互连联盟重写带宽上限
- 深度二:美撤芯片禁令草案背后:字节已绕道,HBM4争夺白热化
- 深度三:Meta双重危机——Avocado落后Gemini 3.0数月,拟裁员20%以上
- 快讯:DeepSeek V4/腾讯混元4月集结、陶哲轩创SAIR、NanoClaw接入Docker
Anthropic这次做了一件定价上的大事:Claude Opus 4.6和Sonnet 4.6的100万token上下文窗口全面开放,不再收取长上下文溢价,不再有200K以上的beta限制,速率也和普通请求拉齐。把一个大型代码仓库、完整合同集或几十万字的日志一次性塞进上下文,现在的成本和处理一封邮件没有本质区别。
Anthropic公布了两个关键基准数据:Opus在MRCR v2(长程多轮检索)达到78.3%,Sonnet在GraphWalks BFS(1M token图遍历)达68.4%。这两个测试考察模型在极长上下文中能否真正读到深处的信息,而不是靠位置偏见找答案。数字不完美,但足以说明1M不只是营销数字。
同一天,NVIDIA、AMD、博通、OpenAI、Meta、微软联合成立OCI MSA光互连联盟,目标制定与协议无关的数据中心光互连开放规范,瞄准3.2Tb/s及以上的光PHY,支持可插拔光模块、板载光与共封装光学CPO。现有NVLink、UALink等不同协议将共用同一光学基础设施。
把这两件事放在一起:一边是AI模型可消费的上下文窗口在继续扩张,一边是GPU之间传输数据的物理管道也在往同一方向追。铜互连的瓶颈是带宽、功耗和距离——OCI MSA的逻辑是用光纤把这三个问题一起解决,让scale-up域从200Gbps往更大规模跨越。
美国商务部周五低调撤回了一份AI芯片出口管控草案。这份文件2月26日刚提交白宫OIRA审查,官员的解释是始终只是草案。真实背景是政府内部的拉锯:拜登政府留下的是按国家分三档限供/禁供的框架,而特朗普团队倾向于更简化的替代规则——把大额出口与外国安全承诺或在美投资直接挂钩。
问题在于,政策讨论还没结束,企业侧的应对已经跑了很远。报道显示字节跳动通过马来西亚云计算公司Aolani的数据中心,租用搭载英伟达Blackwell B200的算力资源。Aolani作为英伟达一级客户更容易获得新GPU供货,而中国大模型公司直接采购H100、A100已受限多年。东南亚数据中心的中间商生态——专门撮合GPU租赁——已经相当成熟。
另一个数据点:AMD CEO苏姿丰将首次访问韩国,会见三星与Naver,目的是锁定HBM4供应。三星和SK海力士都在加速HBM4出货与扩产,定制化HBM4E也提前开打。国内长鑫存储正推进HBM3送测与量产规划并筹备科创板上市。
Meta今天有两条坏消息。第一条:新一代大模型Avocado因内部测试显示推理、代码生成与写作能力未达预期,发布时间从本月推迟到至少5月。知情人士称Avocado显著强于上一代,但仍落后于2025年11月发布的Gemini 3.0——意味着Meta的旗舰模型将带着半年的技术差距入场。
第二条:Meta正酝酿新一轮大规模裁员,可能影响20%以上员工,高层已要求制定方案。官方逻辑是以裁员抵消AI基础设施投入、强调AI辅助提升了人均效率。
这两件事放在一起,勾勒出一个矛盾的图景:Meta一面计划至2028年投入6000亿美元建数据中心,一面在最核心的模型进展上被竞争对手拉开差距;一面高薪组建超级智能团队,一面要裁掉可能是史上最大比例的员工。据报道Meta还存在开源/闭源路线之争,以及一度讨论临时授权Google Gemini来顶自家产品。