Anthropic拒绝五角大楼、OpenAI融1100亿、中国模型调用量全球登顶
Anthropic对决五角大楼:2亿美元合同背后的两条不可让步红线
事实先行:2025年7月,美国国防部与Anthropic签署了一份价值2亿美元的合同,将Claude模型部署于军事机密系统用于情报分析。2026年2月,国防部发出最后通牒:移除所有使用限制,包括禁止大规模国内监控和禁止完全自主致命武器两条核心条款。
Anthropic CEO Dario Amodei公开拒绝。48小时内,特朗普签署行政令,要求所有联邦机构停止使用Anthropic产品,并威胁将其列为"供应链风险"——这是美国总统首次因AI安全政策对一家AI公司采取行政行动。
"当前AI模型并非完美可靠,将不完美的技术用于决定生死的全自主系统,是我们无法接受的风险。" ——Dario Amodei
这件事的深层含义超出了一份合同纠纷。Anthropic的责任扩展政策(RSP)已经经历多个版本迭代,对比分析显示其承诺正从"硬保证"转向"报告义务"。但即便如此,国防部仍认为现有安全限制"过于严苛"。这说明政府对AI能力的期待(或者说需求)已经远远超前于行业自律所能覆盖的范围。
1100亿美元融资背后:"AGI"在合同里不是科学概念,是金融开关
OpenAI完成1100亿美元融资,投后估值达7300-8400亿美元(不同来源口径有差异),创科技史上单轮融资纪录。亚马逊投资500亿美元,软银和英伟达各投300亿美元。
数字本身已经足够惊人,但真正值得深挖的是合同条款中"AGI"的定义——它已经被彻底改造为金融工具:
| 合同方 | AGI 的合同功能 | 触发条件 |
|---|---|---|
| Microsoft | 利益分配开关 | 年利润达到1000亿美元时改变权利分配 |
| Amazon | 付款触发器 | 是否达成AGI直接影响350亿美元资金到账 |
| OpenAI自身 | 使命叙事工具 | 用于吸引投资和人才的品牌定位 |
换句话说,"AGI"这三个字母在科学界仍然没有共识定义,但在华尔街已经有了非常精确的价格标签。投资人George Noble直言这种融资模式存在成为"AI版WeWork"的风险——OpenAI面临产品不可靠、运营成本高企、缺乏技术壁垒三重挑战,而每年数百亿美元的亏损使其对持续融资的依赖不断加深。
中国AI模型全球调用量超越美国:从价格战到需求战的转折点
一个容易被资本新闻淹没的结构性变化正在发生:2026年2月,中国AI模型在全球API调用量上超越美国,占据全球前五席位。这不是因为中国用户变多了——而是因为AI的使用模式从对话型转向了流程型。
当AI从"聊天框"进入"工作流",Token消耗量呈数量级增长。一次Agent任务可能调用模型数十次,这使得成本成为比性能更决定性的因素。中国开源模型——尤其是原生适配Agent架构的那些——凭借价格优势在这个转折点占据了先机。
具体来看,阿里巴巴刚刚发布了Qwen3.5系列,首个模型为397B参数的开源多模态视觉语言模型,支持UI理解等Agent高频场景,并提供NVIDIA NIM微服务部署方案。与此同时,蚂蚁集团语言基座负责人在访谈中透露,国内厂商正通过Attention机制的线性化和稀疏化大幅降低计算量——这不是在追赶算力差距,而是在绕开它。
📡 今日快讯
- Meta发布EgoAVU引擎:首个可规模化自动生成第一视角音视频理解数据的引擎,基于此构建300万条训练样本,模型性能最高提升113%。详情→
- Sakana AI推出Text-to-LoRA和Doc-to-LoRA:基于超网络一次性生成LoRA适配器,将128K文档的内存占用从12GB降至50MB。详情→
- Google DeepMind发布Unified Latents框架:联合正则化潜变量与扩散模型,以更少计算资源在ImageNet-512上实现更高质量生成。详情→
- 面壁智能获中国电信数亿元战略投资:MiniCPM系列下载量超2400万,MiniCPM-o 4.5在9B体量下实现全双工全模态交互。详情→
- Anthropic免费向开源维护者提供Claude Max:5000+星标或百万月下载量的开源项目维护者可申请六个月免费Claude Max 20x。详情→
- AI coding agents实战验证:Max Woolf用Opus 4.6和Codex 5.3从零实现Rust版scikit-learn,完成逻辑回归、K-means等完整功能。详情→
- Devin AI发布团队协作平台:支持Web、Slack、Linear和CLI多端接入,集成自动代码审查和Bug自动化处理。详情→
- 阿里提出专家分化学习策略:解决MoE模型中专家同质化问题,通过最大化域间路由多样性引导真正的专业分工。详情→
- VLAW框架协同优化VLA策略与世界模型:清华-斯坦福联合提出,解决具身智能世界模型"盲目乐观"问题。详情→
- 全同态加密FHE有望迎来商业化拐点:Intel等发布专用芯片性能提升数千倍,密流智能开源底层框架。详情→
- Nano Banana 2降本增效方案:结合Milvus向量数据库与Qwen3.5,电商AI生图成本降低1/3、效率翻倍。详情→
- FOCUS算法优化长视频理解:仅观察不到2%的帧即定位高价值片段,性能提升最高11.9%。详情→
- 印奇主导阶跃星辰与千里科技冲击港股上市:深度绑定吉利体系,打造"模型+终端+整车"产业链。详情→
- AI进入务实评估期:谷歌报告指出正向ROI关键在Agent+流程+系统落地;吴恩达提出"图灵-AGI测试"。详情→
- SIPDO构建Prompt优化闭环系统:双Agent协作,合成数据主动探测弱点,实现持续演化。详情→
- 斯坦福讲师谈AI时代开发者转型:建议从管理单一Agent入手,初级工程师的"无知无畏"反而是优势。详情→
✍️ 编辑手记
今天的三个深度解读看似讲的是不同的事——安全争议、巨额融资、市场格局——但它们其实在回答同一个问题:AI的权力到底归谁?
Anthropic的案例说明,"安全"不再是技术讨论,它已经变成了一个政治筹码。当一位总统可以因为一家公司拒绝移除安全限制而将其踢出整个联邦市场时,所有AI公司都需要重新评估自己的安全承诺到底值多少钱。而OpenAI融资合同中AGI定义的金融化——1000亿美元利润才算AGI——则从另一个方向说明了同样的事:当科学概念变成合同条款,定义权本身就是权力。
最有意思的可能是第三条:中国模型在全球API调用量上的超越,恰好发生在AI使用从对话转向Agent的拐点。这意味着谁掌握了Agent时代的成本公式,谁就掌握了下一阶段的需求入口。三场权力博弈,三种不同的游戏规则,但赢家可能是同一种人——那些能把红线、估值和Token价格翻译成真实价值的人。