Anthropic对决五角大楼:2亿美元合同背后的两条不可让步红线
事实先行:2025年7月,美国国防部与Anthropic签署了一份价值2亿美元的合同,将Claude模型部署于军事机密系统用于情报分析。2026年2月,国防部发出最后通牒:移除所有使用限制,包括禁止大规模国内监控和禁止完全自主致命武器两条核心条款。
Anthropic CEO Dario Amodei公开拒绝。48小时内,特朗普签署行政令,要求所有联邦机构停止使用Anthropic产品,并威胁将其列为"供应链风险"——这是美国总统首次因AI安全政策对一家AI公司采取行政行动。
"当前AI模型并非完美可靠,将不完美的技术用于决定生死的全自主系统,是我们无法接受的风险。" ——Dario Amodei
这件事的深层含义超出了一份合同纠纷。Anthropic的责任扩展政策(RSP)已经经历多个版本迭代,对比分析显示其承诺正从"硬保证"转向"报告义务"。但即便如此,国防部仍认为现有安全限制"过于严苛"。这说明政府对AI能力的期待(或者说需求)已经远远超前于行业自律所能覆盖的范围。