没有英雄——AI行业的道德双重标准
安全政策
Gary Marcus的文章标题一针见血:"商业AI领域没有英雄"。核心指控是:Dario Amodei虽以"不将AI用于自主武器"为底线与国防部谈判破裂(见3月5日大事件),但Anthropic仍被曝通过Claude协助军事目标识别——且由于人类操作员疲劳导致伊朗学校遭到误炸,造成平民伤亡。
Marcus的批评延伸至更广:Amodei被指过度炒作不切实际的技术目标,包括声称AI将在2-3年内实现AGI、十年内将人类寿命延长到150岁,并系统性地淡化AI失控风险。文章的结论是:Amodei与Altman在商业运作模式上高度相似,"均依靠制造恐慌和炒作来融资",只是包装不同。
这一指控发生在Anthropic市场份额飙升至70%、年化营收接近200亿美元的关键节点——越是成功,对其"道德护城河"叙事的考验就越严苛。
值得注意的是,这场批评并非来自AI行业外部的监管机构,而是来自行业内部的长期观察者。这意味着对AI行业道德叙事的质疑,正在从外围渗透进行业共识本身。在LLM性能快速趋同的今天,"安全"与"道德"一直是Anthropic最核心的差异化叙事——一旦这个护城河被质疑,其商业估值的基础将面临重新审视。