Anthropic的两条红线值多少钱?一份五角大楼合同给出了答案
2月27日,特朗普政府将Anthropic定性为"国家安全风险"——原因不是技术泄露,而是这家公司拒绝删除两条使用限制:禁止国内大规模监控,禁止全自主致命武器。CEO Dario Amodei在CBS专访中披露了谈判细节:政府给了3天最后通牒,使用了措辞模糊的合同条款,要求的本质是"我们想怎么用就怎么用"。
真正令人玩味的是当晚发生的事。OpenAI与五角大楼达成了协议,而协议中包含了与Anthropic几乎相同的限制条款。换句话说,同样的红线,一家被定性为安全威胁,另一家顺利签约。这揭示了一个不舒服的事实:争议的核心不是条款本身,而是谁拥有条款的解释权。
这个事件的行业意义远超一份合同的得失。它标志着AI伦理承诺正在从品牌叙事变成商业风险因子。对于所有标榜"负责任AI"的公司来说,Anthropic的遭遇是一面镜子:当政府客户明确表示"你的安全标准妨碍了我"时,你还能坚持多久?