AI智能体的社会化实验

政策 对抗

Anthropic因拒绝完全配合美国国防部要求,被正式列为"供应链风险"。事件经过:国防部最初试图使用无依据的权力进行威胁,后改为援引10 USC 3252条款,但Anthropic仍认定其非法并宣布通过司法途径挑战。CEO Dario Amodei公开声明:"We do not believe the SCR action is legally sound and will challenge it in court。"

这一事件折射出AI行业正在进入的新阶段:顶级模型正在商品化,品牌与信任成为关键护城河。安全技术专家Bruce Schneier分析:"Anthropic及其CEO正将自己定位为道德且值得信赖的AI提供商——在模型性能趋同的市场中,这是最有力的差异化战略。"

与此同时,Pentagon同期采购了Anthropic的模型用于军事场景,形成了鲜明的双重性:一边起诉,一边是客户。这种关系的复杂性,或许正是AI行业政治化的最佳注脚。

开源模型的前景则更为微妙。Interconnects创始人Nathan Lambert认为:开放模型能否在5-10年内形成稳定的权力中心,取决于能否弥合与前沿模型持续扩大的能力差距——而当前差距正在加速扩大,而非收窄。

🌐

深度七:AI智能体的社会化实验

🏙️
AI智能体的社会化实验 | AI 趋势