2. Claude 性能回退与 Meta 员工监控,说明 AI 产品竞争已经撞上“可信度”这道墙
发生了什么
Anthropic 承认 Claude 经过优化后性能下降,原因包括推理强度降低、缓存漏洞以及对提示语冗长的控制策略。另一边,Meta 被曝向美国员工部署 MCI 追踪软件,记录键盘鼠标和屏幕截图,用于训练办公 AI。
为什么重要
这两件事表面上一个是产品事故,一个是组织治理争议,底层却是同一个问题:当 AI 真正进入高频工作流后,用户和员工最先在意的不是愿景,而是你到底靠不靠谱。Claude 的问题在于,用户购买的是稳定输出,但模型提供方却可能为了成本、速度或产品形态,在背后调整推理强度,结果直接让体验回退。只要这种不确定性存在,企业就很难把它视为关键工作组件。
Meta 的做法则把另一个边界暴露得更彻底:办公 AI 想变强,最有价值的数据恰恰来自真实工作行为。但一旦训练数据的来源是员工的键盘、鼠标和屏幕,模型进步就不再只是技术问题,而变成劳动关系、隐私边界和组织信任问题。换句话说,AI 办公助手未来能走多远,不只取决于模型会不会做 PPT、总结会议纪要,还取决于公司有没有能力解释“这些能力是拿什么换来的”。
今天暴露出的两类风险
同一条行业逻辑
Claude:能力不是一次性买断,服务商的调参会反向影响用户体验。
Meta:训练办公 AI 最优质的数据,往往也最容易引发反弹。
结论:AI 产品下一阶段要拼的不只是能力峰值,而是稳定性、透明度和可解释性。