AI 每日精选 · 2026-04-30

微软829亿美元、AWS增速28%、英伟达站上5万亿:4月30日AI基础设施开始拼回报率

今天真正拉开差距的,不是谁又喊出了更大的参数规模,而是谁能把AI投入解释成财报增长、云业务提速和更高效的算力组织方式。资本市场正在从“愿意下注”转向“要求兑现”。

829亿美元
微软季度营收,同比增长 18%
28%
AWS 增速,创 15 个季度新高
5万亿美元
英伟达市值连续站上新关口

深度解读

微软和亚马逊都在证明一件事:AI资本开支必须尽快变成云收入

发生了什么:微软公布2026财年第三季度营收829亿美元,同比增长18%,其中云业务营收545亿美元、增长29%,Azure增长40%;亚马逊则交出一份更关键的信号,AWS增速达到28%,创15个季度新高。

为什么重要:过去一年市场愿意容忍巨额AI投入,因为大家默认大模型时代会先烧钱、后收获。但到今天,投资人开始看更硬的指标:资本开支有没有变成更快的云增长,客户是不是愿意把AI工作负载真的搬上去,云平台能不能同时吃到训练、推理和企业应用三层红利。微软和亚马逊这两份财报之所以重要,不在于“增长不错”,而在于它们第一次较清楚地回答了“AI基础设施生意是否已经开始形成经营杠杆”。

Azure 增速40%
AWS 增速28%
微软总营收增速18%
公司今天给出的关键信号
微软AI业务年收入超370亿美元,Copilot付费席位突破2000万,说明企业AI开始形成可持续订阅收入。
亚马逊一边用AWS承接AI需求,一边押注自研芯片和与Anthropic、OpenAI的绑定,试图把基础设施优势变成生态锁定。

具体细节:微软本季资本支出达到319亿美元,虽然环比下降15%,但绝对规模仍很高,这意味着它没有缩手,只是在更讲究投入节奏。亚马逊则更直接暴露出AI建设的代价:自由现金流明显承压,但市场依然正面反馈,原因恰恰是AWS重新提速。简单说,市场现在接受“重投入”,前提是云增长要同步兑现。接下来,云厂商比拼的不只是GPU储备,而是能否把模型服务、企业Copilot和推理成本控制一起做出来。

主题二:算力繁荣进入第二阶段

英伟达市值冲上5万亿美元之后,行业开始追问GPU之外还能怎么扩容

发生了什么:英伟达市值首次连续站在5万亿美元关口之上,市场继续押注AI算力需求;同时,关于推理芯片带宽瓶颈与3D堆叠的讨论升温,行业焦点从“有没有算力”转向“推理阶段怎样更高效地喂饱算力”。

为什么重要:训练时代最稀缺的是大规模GPU集群,推理时代最稀缺的则是带宽、内存容量和单位能耗下的吞吐。英伟达股价和市值持续冲高,说明市场仍然相信GPU是AI经济的收费站;但3D堆叠、近存计算、存算一体这些方向被反复拿出来讲,说明产业已经知道只靠横向堆更多卡,迟早会碰到成本墙和带宽墙。也就是说,下一阶段算力竞争会从“买到芯片”升级为“重新设计芯片与内存关系”。

GPU 需求热度高位
3D堆叠受关注度快速上升
端到端推理能效诉求持续上升
瓶颈对应思路
内存带宽不足通过3D堆叠缩短数据搬运距离,提升吞吐。
容量与功耗压力近存/存算一体等方案试图减少搬运成本。
推理成本过高把硬件创新和模型压缩、服务调度一起做优化。

具体细节:这也是为什么英伟达的繁荣与芯片架构创新并不矛盾,反而互相强化:前者说明需求大到足以支撑高估值,后者说明行业还远没到“供给充分、效率最优”的成熟阶段。对云厂商、模型公司和终端厂商来说,谁能更早拿到更高带宽、更低延迟、更好能效的推理栈,谁就更可能在AI服务价格战里活得更舒服。

主题三:国产与端侧路线不再只讲替代

万亿参数模型、车端智能体和9B全模态助手,正在把“落地效率”变成新的比较标准

发生了什么:DeepSeek V4 与美团 LongCat-2.0-Preview同日被描述为万亿参数级模型,并强调国产算力训练与全栈迁移;MiniCPM-o 4.5则用9B参数做端到端全双工全模态助手;与此同时,AutoClaw 与 AutoOmni把汽车往“可执行任务的智能体”方向推。

为什么重要:这几条新闻看似分散,实际上都在回答同一个问题:模型能力怎么变成可部署、可调用、可在特定硬件上稳定运行的产品。万亿参数模型代表上限能力仍在冲高,但端侧9B全模态模型和车端Agent说明,真正决定普及速度的不是参数本身,而是系统是否能在真实设备里跑起来、持续响应、保护隐私并控制成本。行业叙事正在从“谁更强”转向“谁更能部署”。

具体细节:DeepSeek V4强调从CUDA到昇腾950PR的全栈迁移,LongCat强调完全基于国产算力集群训练,这说明国产供应链竞争点已不只是“有无替代”,而是训练效率和推理成本。MiniCPM-o 4.5用9B参数实现边看边听边说和主动提醒,说明小参数高集成路线正在争夺个人设备入口。车端方向上,AutoClaw结合端侧模型AutoOmni,把感知与执行串在一起,意味着汽车厂商不再满足于把AI放进座舱问答,而是开始把汽车当成具备任务执行能力的机器人平台。

快讯

Harness Engineering 兴起:海致科技认为,产业级AI正从追求模型规模转向追求可控运行系统,多智能体编排、逻辑栅栏和自反馈循环正在成为强监管行业落地前提。
数据目录的新价值:当AI代理开始直接消费元数据后,数据目录的价值不再取决于人类员工用不用,而取决于列级描述、规范标识和新鲜度信号是否足够完整。
OpenAI 联手高通、联发科开发AI手机:消息称立讯精密拿下独家系统协力合同、目标2028年量产,资本市场立即把它解读为移动AI硬件入口之争升级。
阿里 HappyHorse 灰测反馈平平:尽管曾在排行榜上表现亮眼,但测试用户普遍认为其效果未明显超越 Seedance 2.0 和可灵 3.0,价格优势暂时也不足以促成迁移。
陶哲轩谈“证明过剩时代”:AI让数学证明生成速度大幅提高,但真正稀缺的环节转向验证与理解,未来研究者的竞争力将更像工作流设计与结果消化能力。
DeepSeek 识图模式实测:OCR、表格处理和网页图片复原HTML表现不错,但空间推理和找不同任务仍出现明显幻觉,视觉能力距离稳定生产级还有距离。
GPT-5.5 为何总提“哥布林”:OpenAI复盘称,这是一种奖励信号偏差带来的语言习惯放大,提醒大家人格对齐也会产生意料之外的表达副作用。
IBM 发布两款 2B 语音模型:Granite Speech 4.1 2B 与 2B-NAR 继续证明,小模型在企业语音识别场景里仍有明显成本效率优势。
Karpathy 再谈 AI 改变工作方式:核心变化不是“人做得更快”,而是很多工作开始变成先定义目标与边界,再让机器完成可验证步骤,人类价值更多留在判断与理解上。
1930年截止数据训练模型实验:Talkie 13B 说明历史语料也能支持部分编程能力,但现代知识缺口与时间泄漏问题依旧明显,提醒大家数据时代切片本身就会重塑模型能力边界。
Zed 1.0 发布:这款编辑器补强了 DeepSeek 模型接入、Git 集成和跨平台一致性,显示开发工具仍在持续把AI能力嵌入日常工程流。
本期基于 2026-04-29 20:00 至 2026-04-30 20:00(北京时间)窗口内提供的文章上下文编辑生成。
微软829亿美元、AWS增速28%、英伟达站上5万亿:4月30日AI基础设施开始拼回报率 | AI 趋势