Claude 4.5用110稿完成哈佛物理论文、Anthropic拒绝五角大楼被列供应链风险
Claude 4.5用110个草稿完成QCD论文:哈佛物理教授的严苛实验
哈佛物理系教授Matthew Schwartz的实验条件近乎苛刻:要求Claude 4.5独立完成一篇关于量子色动力学中C-参数苏达科夫肩峰重求和(Sudakov shoulder resummation)的论文,全程禁止向AI透露"这是学术论文"这类身份暗示,同时要求推导过程可追溯、数学结论可验证。这不是通常意义上的AI辅助写作——AI是主要作者,教授是审稿人。
两周内,Claude生成了110个草稿版本,Schwartz主要扮演方向纠偏的角色:指出哪里推导路径走偏、哪里物理图像不自洽。最终论文进入同行评审流程。QCD中的苏达科夫重求和属于高能物理的技术前沿,需要掌握量子场论中的因子化定理和重求和方程,不是通用语言能力能覆盖的范围。
更值得关注的是实验的边界条件。Schwartz承认整个过程提供的指导相当有限,更像资深编辑而非合著者——这意味着Claude 4.5在没有逐步手把手引导的情况下,能维持长达两周的技术推理一致性。对应的代价是110个草稿:大量失败是迭代的原材料,而非能力上限。AI写学术论文从宣称"能写"到教授拿着成果提交,这是量级不同的证据。
Anthropic拒绝五角大楼未审查军事应用,被列"供应链风险"
AI公司通常面临两种压力:要么被批评不负责任地军事化,要么因拒绝军事合作被报复。Anthropic现在同时遭遇了两端——因为有安全立场,被执行方视为障碍。"供应链风险"是技术性标签,但实际效果是将公司推出政府采购体系。
这与其他AI公司的选择形成鲜明对比:OpenAI此前修改使用条款明确开放军事应用;Google在内部压力下重启了与国防部的合作。Anthropic的宪法AI框架(Constitutional AI)包含对有害应用的明确限制,这本是展示负责任AI的招牌,现在成了合规摩擦的来源。Warren的声援让事件从商业摩擦变成了科技政策议题。
更深的信号:随着AI能力越来越强,政府不再只是AI公司的潜在客户,而是规则制定者和风险评估者。被列入供应链风险名单,意味着Anthropic被推向了一个必须选择立场的节点——这个选择将影响它与整个联邦政府生态的关系,不仅仅是一个合同。