万亿参数模型、车端智能体和9B全模态助手,正在把“落地效率”变成新的比较标准
发生了什么:DeepSeek V4 与美团 LongCat-2.0-Preview同日被描述为万亿参数级模型,并强调国产算力训练与全栈迁移;MiniCPM-o 4.5则用9B参数做端到端全双工全模态助手;与此同时,AutoClaw 与 AutoOmni把汽车往“可执行任务的智能体”方向推。
为什么重要:这几条新闻看似分散,实际上都在回答同一个问题:模型能力怎么变成可部署、可调用、可在特定硬件上稳定运行的产品。万亿参数模型代表上限能力仍在冲高,但端侧9B全模态模型和车端Agent说明,真正决定普及速度的不是参数本身,而是系统是否能在真实设备里跑起来、持续响应、保护隐私并控制成本。行业叙事正在从“谁更强”转向“谁更能部署”。
具体细节:DeepSeek V4强调从CUDA到昇腾950PR的全栈迁移,LongCat强调完全基于国产算力集群训练,这说明国产供应链竞争点已不只是“有无替代”,而是训练效率和推理成本。MiniCPM-o 4.5用9B参数实现边看边听边说和主动提醒,说明小参数高集成路线正在争夺个人设备入口。车端方向上,AutoClaw结合端侧模型AutoOmni,把感知与执行串在一起,意味着汽车厂商不再满足于把AI放进座舱问答,而是开始把汽车当成具备任务执行能力的机器人平台。
快讯
Harness Engineering 兴起:海致科技认为,产业级AI正从追求模型规模转向追求可控运行系统,多智能体编排、逻辑栅栏和自反馈循环正在成为强监管行业落地前提。
数据目录的新价值:当AI代理开始直接消费元数据后,数据目录的价值不再取决于人类员工用不用,而取决于列级描述、规范标识和新鲜度信号是否足够完整。
OpenAI 联手高通、联发科开发AI手机:消息称立讯精密拿下独家系统协力合同、目标2028年量产,资本市场立即把它解读为移动AI硬件入口之争升级。
阿里 HappyHorse 灰测反馈平平:尽管曾在排行榜上表现亮眼,但测试用户普遍认为其效果未明显超越 Seedance 2.0 和可灵 3.0,价格优势暂时也不足以促成迁移。
陶哲轩谈“证明过剩时代”:AI让数学证明生成速度大幅提高,但真正稀缺的环节转向验证与理解,未来研究者的竞争力将更像工作流设计与结果消化能力。
DeepSeek 识图模式实测:OCR、表格处理和网页图片复原HTML表现不错,但空间推理和找不同任务仍出现明显幻觉,视觉能力距离稳定生产级还有距离。
GPT-5.5 为何总提“哥布林”:OpenAI复盘称,这是一种奖励信号偏差带来的语言习惯放大,提醒大家人格对齐也会产生意料之外的表达副作用。
IBM 发布两款 2B 语音模型:Granite Speech 4.1 2B 与 2B-NAR 继续证明,小模型在企业语音识别场景里仍有明显成本效率优势。
Karpathy 再谈 AI 改变工作方式:核心变化不是“人做得更快”,而是很多工作开始变成先定义目标与边界,再让机器完成可验证步骤,人类价值更多留在判断与理解上。
1930年截止数据训练模型实验:Talkie 13B 说明历史语料也能支持部分编程能力,但现代知识缺口与时间泄漏问题依旧明显,提醒大家数据时代切片本身就会重塑模型能力边界。
Zed 1.0 发布:这款编辑器补强了 DeepSeek 模型接入、Git 集成和跨平台一致性,显示开发工具仍在持续把AI能力嵌入日常工程流。
本期基于 2026-04-29 20:00 至 2026-04-30 20:00(北京时间)窗口内提供的文章上下文编辑生成。