DeepSeek-V4、LongCat-2.0 与 MiMo-V2.5,把竞争推进到“模型—芯片—上下文”联动阶段

今天最值得放在头条位置的,是国产大模型迎突破小米开源 MiMo-V2.5这一组新闻。前者强调 DeepSeek-V4 和美团 LongCat-2.0-Preview 发布后,中国在万亿级参数模型数量上首次超过美国,而且这些模型都在国产芯片集群上完成训练;后者则给出更硬的参数:MiMo-V2.5-Pro 达到 1.02T 参数、支持 100 万上下文,并在多项测评里压过 DeepSeek-V4-Pro 和 Kimi K2.6。

这件事为什么重要?因为它标志着国产模型叙事第一次从“某个模型很强”走向“模型能力、训练硬件、生态适配一起成形”。过去大家最担心的是,大模型可以发,但一旦进入真实训练和推理阶段,仍然绕不开英伟达生态。今天的信息至少说明,中国厂商已经不满足于做参数规模展示,而是在试图证明:即使在供应链受限环境下,也能跑出万亿级模型、长上下文和可商用授权这三件事。

小米这次给出的 MIT 协议也很关键。它意味着模型不仅能看,还能商用、二次训练,外部开发者接入门槛明显更低。再加上 100 万亿 Token 激励计划,以及与多家芯片厂商和 Agent 框架适配,MiMo-V2.5 想争的不只是榜单名次,而是开发者生态。把它和 DeepSeek-V4、LongCat-2.0 放在一起看,今天国产大模型最值得注意的增量不是单点性能,而是“从训练到落地”的完整链路正在变厚。

国产模型今天释放的三层信号

1.02T
100万
增强

具体细节

DeepSeek-V4 与 LongCat-2.0-Preview 被放进“万亿级参数模型”竞争框架。
MiMo-V2.5-Pro 采用 MIT 协议,允许商用和二次训练。
100 万上下文与 100 万亿 Token 激励计划,说明目标是生态扩张,不只是媒体传播。
主题 2|OpenAI 不再只缺模型,而是开始缺增长缓冲
DeepSeek-V4、LongCat-2.0 与 MiMo-V2.5,把竞争推进到“模型—芯片—上下文”联动阶段 | AI 趋势