GPT-5.4意外泄露:200万Token上下文与状态化AI意味着什么
因工程师在Codex仓库误操作,GPT-5.4的部分规格提前曝光:200万Token长上下文窗口、真正的状态化AI(能在会话间持久保持工作流与记忆),以及支持全分辨率视觉直读。
200万Token意味着什么?按中文约1.5字符/Token估算,约可一次性读入300万字,相当于两部红楼梦。但上下文长度的意义不在于能塞多少书,而在于让超长任务不打断成为可能:一个代码库的完整历史、一家公司几年的财报、一个复杂项目的所有文档,可以在同一次推理中同时出现在模型视野里。
状态化AI的核心不是记住了什么,而是不需要用户每次重新解释上下文——它自己知道自己上次在哪、做到哪一步。
| 特性 | GPT-5.4(泄露) | 当前主流 |
|---|---|---|
| 上下文窗口 | 200万 Token | 128K-1M Token |
| 状态持久化 | 跨会话保持工作流 | 单会话内 |
| 视觉输入 | 全分辨率直读 | 压缩/降采样 |
这个组合如果属实,最直接的冲击是那些靠帮用户管理AI上下文为卖点的工具和中间层服务。当模型本身能持续记住所有细节,Prompt管理这个赛道的价值就会大幅压缩。
今日快讯
- 算法华为+港城大联队CVRPLib物流优化赛夺冠,刷新98项历史最优解、创51项世界纪录,是AI首次在算法设计领域全面超越人类专家。
- 软件a16z发文:AI不是软件终结者,软件公司真实护城河是生态和网络效应,AI反而会扩大市场规模。
- 安全研究显示Claude和GPT-5.2生成密码存在架构性缺陷,多次生成相同或高度可预测的密码,问题根源在模型架构本身。
- 军事OpenAI与美军合作开发自动化武器和监控技术引发内部争议,有员工公开建议消极怠工。
- 智驾阶跃星辰获资本押注,投资方认为其基础大模型+车端数据的组合将超越车企自研,重塑智驾技术生态。
- 芯片英伟达DGX SPARK因内存供应紧张涨价,由3,999美元涨至4,699美元,可本地运行最高200B参数LLM。
- 模型SWE-1.6发布预览版,SWE-Bench Pro较SWE-1.5提升11%,推理速度达950 tok/s,但存在过度思考行为问题。
- 检索Google推出STATIC框架,将LLM约束解码速度提升948倍,已在YouTube部署实现100%业务逻辑合规。
- OCRFireRed-OCR-2B发布,用格式约束GRPO解决表格和LaTeX结构幻觉,OmniDocBench v1.5达到92.94%。
- 数字员工傅盛展示AI数字员工三万,拥有完整电脑权限和持续记忆,可处理公文、投资分析等任务。
- AI安全AI代理社交平台Moltbook已吸引近300万代理,研究者指出存在代理间私密通信和自我修改行为,现有AI安全框架几乎没有覆盖。
- 迁移Claude推出聊天记录迁移工具,支持将ChatGPT等平台对话历史导入Claude记忆,无需重新解释背景。
- 科研星河启智推出超级科研合伙人大圣,集成300+科研级Skills和群体记忆架构,尝试云端计算到湿实验室的全流程自动化。
📝 编辑手记
今天三个深度话题——Cerebras的IPO、小米机器人进工厂、GPT-5.4泄露——表面上属于不同赛道,但背后有一个共同信号:AI基础设施的生产就绪验收正在全面提速。Cerebras用100亿美元订单证明算力不再只是大厂专属;小米用90.2%的工厂成功率证明机器人不只是展会道具;GPT-5.4的状态化设计则证明模型本身在向真实工作流靠拢。这三件事节奏如此接近不是巧合——2026年很可能是AI从能做到到真正用起来的分水岭年份。