GPT-5.4意外泄露:200万Token上下文与状态化AI意味着什么

因工程师在Codex仓库误操作,GPT-5.4的部分规格提前曝光:200万Token长上下文窗口、真正的状态化AI(能在会话间持久保持工作流与记忆),以及支持全分辨率视觉直读。

200万Token意味着什么?按中文约1.5字符/Token估算,约可一次性读入300万字,相当于两部红楼梦。但上下文长度的意义不在于能塞多少书,而在于让超长任务不打断成为可能:一个代码库的完整历史、一家公司几年的财报、一个复杂项目的所有文档,可以在同一次推理中同时出现在模型视野里。

状态化AI的核心不是记住了什么,而是不需要用户每次重新解释上下文——它自己知道自己上次在哪、做到哪一步。
特性GPT-5.4(泄露)当前主流
上下文窗口200万 Token128K-1M Token
状态持久化跨会话保持工作流单会话内
视觉输入全分辨率直读压缩/降采样

这个组合如果属实,最直接的冲击是那些靠帮用户管理AI上下文为卖点的工具和中间层服务。当模型本身能持续记住所有细节,Prompt管理这个赛道的价值就会大幅压缩。

今日快讯

📝 编辑手记

今天三个深度话题——Cerebras的IPO、小米机器人进工厂、GPT-5.4泄露——表面上属于不同赛道,但背后有一个共同信号:AI基础设施的生产就绪验收正在全面提速。Cerebras用100亿美元订单证明算力不再只是大厂专属;小米用90.2%的工厂成功率证明机器人不只是展会道具;GPT-5.4的状态化设计则证明模型本身在向真实工作流靠拢。这三件事节奏如此接近不是巧合——2026年很可能是AI从能做到到真正用起来的分水岭年份。

GPT-5.4意外泄露:200万Token上下文与状态化AI意味着什么 | AI 趋势