2025年5月28日,英伟达召开了新财年第一季度财报电话会议。
在全球AI竞赛愈发激烈的当下,英伟达交出了一份令人瞩目的成绩单:季度营收达到440亿美元,同比增长69%,数据中心业务更是贡献了390亿美元的收入,同比暴涨73%。
在长达一个多小时的财报会议中,英伟达CEO黄仁勋与首席财务官科莱特·克雷斯特不仅详细解读了亮眼的财务数据,更重要的是勾勒出英伟达在AI时代的宏伟蓝图。
就在4月9日,美国政府针对H20芯片颁布了新的出口管制措施,这让英伟达不得不核销45亿美元的库存和采购承诺。与此同时,特朗普政府撤销了AI扩散条例,为美国AI技术的全球推广开了绿灯。在这样的大背景下,黄仁勋的发言显得格外引人关注——他既要面对中国市场的巨大损失,又要抓住政策松绑带来的全球机遇。
这场财报会议之所以值得深度关注,不仅因为英伟达在AI芯片市场的统治地位,更因为黄仁勋在会上展现的战略眼光和对AI未来的深刻洞察。从推理模型的爆发式增长,到Blackwell架构的革命性突破,从主权AI的兴起,到企业级AI的全面落地,黄仁勋描绘的不仅是英伟达的商业版图,更是整个AI产业的发展路径。
财务亮点与市场表现:超预期背后的增长逻辑
英伟达2025财年第一季度再次实现了超预期的财务表现。
公司首席财务官科莱特·克雷斯特(Colette Kress)在开场发言中强调:"我们再次交出亮眼季度业绩,营收达440亿美元,同比增长69%,超过我们预期的年度目标。"
数据中心业务仍然是公司最强劲的增长引擎,收入达390亿美元,同比增长73%。科莱特指出:"我们的工作负载已全面转向推理领域,人工智能工厂建设正带来可观收入。" Blackwell平台的快速增长功不可没,它创下了公司史上最快增速,推动年增长率达73%,并贡献了数据中心近70%的计算收入。
游戏与AI PC业务同样表现出色,营收创下历史新高,达到38亿美元,环比增长48%,同比增长42%。科莱特解释道:"受到游戏玩家的热烈追捧,创意工作者与AI爱好者共同打造了Blackwell。在强劲需求背景下,我们实现了史上最快的产能爬坡。"
专业可视化业务收入达5.09亿美元,同比增长19%,而汽车业务板块收入为5.67亿美元,同比大幅增长72%。这一增长主要得益于自动驾驶业务的快速扩张。
然而,一季度也面临重大挑战,4月9日,美国政府针对英伟达专为中国市场设计的H20芯片颁布了新的出口管制措施。科莱特坦言:"尽管我们的H20芯片已在市场流通超过一年,且在中国境外没有市场,针对H20的新出口管制未给予宽限期,使我们无法在第一季度清空库存。“
“这不仅是英伟达的损失,更让在华的外国竞争对手受益,乃至全球范围"。科莱特的表述中透露的无奈和战略焦虑,为后续黄仁勋的深度分析埋下了伏笔。
黄仁勋谈出口管制:中美技术竞争与平台战略
H20芯片的出口管制无疑是本次财报会议的重要议题,黄仁勋对此的回应既有无奈,也有深层的战略思考。他坦率地说:"中国是全球最大的人工智能市场之一,也是通往全球成功的跳板,全球半数人工智能研究人员都驻扎于此。然而这500亿美元的中国市场实际上已对美国工业关闭。"
黄仁勋表达了他对当前出口管制政策的担忧,认为这些限制可能适得其反:"中国人工智能发展不受芯片限制,它拥有训练和部署先进模型的计算能力。问题不在于中国是否会发展人工智能,它已经做到了,问题在于全球最大的AI市场是否会由美国平台主导。"
他进一步解释道:"保护中国芯片制造商免受美国竞争冲击,只会让它们更加强大,在国外削弱了美国的地位。出口限制刺激了中国的创新和规模化发展。"
黄仁勋提出了一个关键观点,认为AI竞争的本质并非仅限于芯片:"人工智能竞赛不仅仅是关于芯片,这关乎技术栈的选择。随着技术栈扩展至6G和量子领域,美国全球基础设施领导地位岌岌可危。"
他对当前美国政策提出质疑:"美国将其政策建立在认为中国无法制造AI芯片的假设,这个假设一直值得怀疑,而现在显然是大错特错。毕竟中国拥有巨大的制造能力。"
黄仁勋最后总结道:"赢得AI开发者就赢得平台的未来。美国切勿将全球半数AI人才推向竞争对手。"这一表述清晰地传达了他对技术平台竞争的深刻理解,以及对当前政策可能产生的长期后果的担忧。
推理模型的爆发:推理模型带来的token需求
黄仁勋在会议中花费了大量时间阐述推理模型的爆发式增长,他开门见山地说:"我们正目睹推理需求激增,OpenAI、微软和谷歌正经历token数量呈阶梯式跃升。"这说明推理模型需求不是线性增长,而是呈现出指数级的爆发态势。
具体的数据更是令人震撼,黄仁勋透露:"微软第一季度处理超100万亿token,同比增长五倍。"这个数字背后是AI应用从实验室走向大规模商业部署的历史性转折。推理模型不再是训练的附属品,而是成为了独立的、甚至更重要的计算需求来源。
推理模型的技术特点也发生了根本性变化,黄仁勋详细解释了推理时间缩放的概念:"推理模型支持逐步解决问题、规划求解,将模型转化为工具使用的智能Agent。推理需要密集计算,相比之前单次处理,每项任务需处理数百至数千倍更多token。"
这种计算模式的变化对硬件提出了全新要求,黄仁勋形象地比喻说:"它本质上是在自我思考,将问题逐步分解,可能是规划多条解题路径,也可能是借助工具,阅读PDF或网页内容,观看视频,然后生成结果和答案。思考时间越长效果越好,答案越聪明。"
英伟达在推理性能测试中的表现也印证了这种需求。科莱特提到:"在最新的MLPerf性能推理测试结果中,我们首次提交了采用GB200和NVL72的测试结果,性能提升高达30倍,相较于我们采用八块GPU的配置。"这种性能提升不是简单的硬件堆叠,而是架构优化的结果。
黄仁勋还强调了开源AI模型的战略价值:"DeepSeek凸显了开源AI的战略价值。当流行模型在美国平台上进行训练和优化时,这会推动使用量增长、反馈和持续改进,从而巩固美国在整个技术栈平台上的领导地位。开源AI的首选平台必须保持不变,这意味着要支持与顶尖开发者的协作,在全球范围内,包括在中国。当出现像DeepSeek这样的模型时,美国就赢了,因为它在美国基础设施上运行效果最佳。"
Blackwell革命:从Hopper到GB200的架构跃迁
Blackwell平台是本次财报会议的焦点之一,英伟达对这一下一代AI计算架构给予了极高期望。科莱特强调:"Blackwell平台创下公司史上最快增速,推动年增长率达73%的数据中心收入同比增长。Blackwell贡献了数据中心近70%的计算收入本季度,正从Hopper平台过渡。"
GB200 NBL(NVLink-Bridge)的引入是一次根本性的架构变革,旨在支持数据中心规模的工作负载,并实现最低的推理token成本。科莱特指出:"虽然构建这些系统十分复杂,但我们已见证了制造业效率的显著提升,成品率与机架出货量正以强劲态势直达终端客户。"
她进一步详细介绍了客户采用情况:"GB200 NBL机架现已全面上市,供现代建设者使用。企业和主权客户可借此开发和部署人工智能。平均而言,主要超大规模企业各自正在部署近一千个NVL 72机架或七十个GPU。我们每周生产两千块Blackwell GPU,并且正在进一步提高产量。"
微软作为关键客户的部署规模尤为惊人:"本季度微软已经部署完成数万块Blackwell GPU,预计将逐步增加到数十万块GB200。"
英伟达已经开始规划Blackwell平台的下一阶段发展:"GB300系统的超频挖矿已于本月早些时候启动在各大CSPS平台,我们预计量产发货将在稍后开始。本季度GB300将采用相同的架构,相同的物理尺寸,以及与GB200相同的电气和机械规格。"
这种兼容性设计将确保平滑过渡:"GB300直插式设计将使CSPS能够无缝过渡其系统,并沿用GB200的制造工艺,同时保持高良品率。"
性能方面,GB300相比前代产品有显著提升:"B300 GPU配备50%的高带宽内存(HBM),可再提升50%密集FP4推理计算性能,相较B200显著提升。"
黄仁勋在回答分析师提问时更详细地解释了Blackwell架构的设计理念:"今天,NVLink 72堪称理想引擎,若你愿意称之为理想计算机思维机器,它正是实现AI推理的最佳选择。"
黄仁勋总结道:"Grace Blackwell的设计初衷就是实现如此巨大的性能飞跃在推理性能上的提升,让你能够完成所有这些操作的同时仍能获得响应,尽快与霍珀·格雷斯·布莱克威尔相比,速度提升了约40倍,相比具有更高的速度和吞吐量。因此这将是一个巨大的、大幅降低成本的同时带来巨大收益,提升响应质量,同时保持卓越的服务品质。"
AI工厂:基础设施化的必然趋势
"AI工厂"这个概念在黄仁勋的表述中频繁出现,这不是一个简单的营销词汇,而是对AI基础设施化趋势的深刻洞察。科莱特在财报中透露:"本季度已有近100家采用英伟达技术的AI工厂投入运营,同比增长两倍,年均GPU数量为每座工厂供电的同时也使其产能翻倍。"
这种增长速度背后是全球对AI基础设施需求的爆发。黄仁勋把AI比作电力和互联网:"它是一种技术交付需要工厂化运作,而这些工厂生产的是数字凭证。它们对每个国家的每个行业都至关重要。"这种类比很有启发性,暗示AI将像电力一样成为社会运行的基础设施。
AI工厂的建设规模也超出了很多人的想象,黄仁勋透露:"我们已能预见相关项目的发展路径,这些项目需要数十千兆瓦的英伟达AI基础设施在不远的将来。"这个数字概念可能不够直观,但如果对比传统数据中心的功耗,就能理解这种需求的庞大程度。
更有意思的是AI工厂的分布特点,科莱特提到了AT&T、比亚迪、富士康、联发科等各行各业的领军企业,以及"具有战略意义的主权云,就像最近在沙特阿拉伯、台湾和阿联酋宣布的那些"。这种分布说明AI工厂不仅是科技公司的专利,更是各行各业数字化转型的必需品。
黄仁勋对AI工厂建设热潮的解读更加宏观:"每个国家现在都将人工智能视为下一次工业革命的核心,智能是每个经济体国家的基础设施核心,各国正竞相构建国家级人工智能平台,以提升其在计算技术领域的数字化能力。"这种表述将AI工厂建设上升到了国家战略竞争的高度。
具体的项目案例也很有说服力,黄仁勋提到:"我们宣布与富士康合作在台湾建立首家人工智能工厂,上周我在瑞典启动了该国首个国家级人工智能基础设施。日本、韩国、印度、加拿大、法国、英国、德国、意大利、西班牙等国正在建设国家级人工智能工厂。"这种全球性的建设热潮,为英伟达提供了巨大的市场机遇。
美国制造战略:重塑半导体供应链
黄仁勋在会议中详细阐述了英伟达的美国制造战略,表明公司正在响应特朗普政府推动先进制造业回归美国本土的倡议。他说道:"特朗普总统已提出将先进制造业回迁本土的宏伟愿景,创造就业机会并增强实力。未来工厂将高度智能化,在机器人领域我们秉持这一愿景。"
英伟达与主要半导体制造商的合作已经取得实质性进展:"台积电正在建设六座晶圆厂,亚利桑那州的两座先进封装工厂为英伟达生产芯片,正在进行资格认证,预计今年将实现量产。安姆科公司也正在亚利桑那州投资,在休斯顿建设包装组装与测试设施。"
除了芯片制造,英伟达还与电子代工厂商合作建设AI超级计算机制造基地:"我们正与富士康合作建造一座百万平方英尺的AI工厂超级计算机。纬创正在德克萨斯州沃斯堡建设类似工厂。"
为支持这些制造项目,英伟达做出了长期承诺:"以鼓励和支持这些投资,我们已做出大量长期采购承诺,对美国人工智能制造业未来的深度投资。"
黄仁勋明确表示了公司的最终目标:"我们的目标是从芯片到超级计算机都在美国本土制造,一年内完成。每台GB200机柜长度72个机柜包含1200万个组件,总重量达近两吨重的超级计算机,此前从未有人实现过如此规模的生产。合作伙伴们正在做出非凡的贡献。"
他还提到了特朗普政府最近的政策变化及其影响:特朗普总统撤销了人工智能扩散条例,称这种做法适得其反,并提出了促进美国人工智能技术发展的新政策。
黄仁勋强调,虽然英伟达正在全球范围内扩展业务,但美国仍然是公司的核心市场:"美国将始终是英伟达最大的市场和总部所在地,我们基础设施的最大装机量。"
企业AI落地:从概念到实际应用的跨越
英伟达正积极布局企业级AI市场,开发专门针对企业需求的解决方案,科莱特介绍:"我们推出了LLAMA Nemotron系列开源推理模型,专为企业级AI平台提供强劲动力。基于Llama架构打造,这些模型现已开放使用,作为NIMS或NVIDIA推理微服务,提供多种规格以满足多样化部署需求。"
这些企业级模型具有显著的性能优势:"我们的训练后优化实现了20%的准确率提升,推理速度提升5倍,引领平台企业创新,包括埃森哲、铿腾电子、德勤以及微软等企业正运用我们的推理模型实现工作变革。"
英伟达的推理微服务也获得了积极的市场反应:"英伟达Nemo微服务现已全面开放,各行业领先企业正利用该技术构建、优化并扩展人工智能应用。借助Nemo,Cisco将模型准确率提升40%,代码响应速度加快10倍。纳斯达克实现30%的准确率与响应时间双重提升在其人工智能平台上,搜索功能和外壳定制LOLM实现了30%的准确率提升。"
英伟达还与餐饮巨头建立了合作关系:"我们还宣布与百胜餐饮集团达成合作,这家全球最大的餐饮企业将英伟达人工智能引入其500家餐厅今年,并扩展到更多餐厅,随着时间推移精简上千家餐厅,订单处理优化运营,提升服务。"
安全领域也是英伟达企业AI战略的重要部分:"在其餐厅中应用人工智能驱动的网络安全,领先企业如Checkpoint、Cloud Strike和Palletet Networks正在使用NVIDIA的AI技术,安全性与构建优化的软件栈,并通过云端打击确保敏捷工作流程,实现检测分诊速度翻倍,同时减少50%工作量计算成本。"
黄仁勋在回答分析师问题时,特别强调了企业级AI的巨大潜力:"企业级人工智能已准备就绪,蓄势待发。而且我们花费数年时间构建了这个计算系统,能够整合运行的企业人工智能堆栈运行,企业信息技术堆栈,但为其添加人工智能。"
他具体提到了英伟达最新的企业级AI服务器产品:"这就是我们在Computex上发布的RTX Pro企业级服务器,就在上周,这家IT公司已加入我们,对此我们感到无比兴奋。"
黄仁勋还解释了企业IT基础设施的三大支柱:"企业IT实际上由三大支柱构成,这是计算、存储和网络。如今我们终于将这三者整合为一体,并即将推向市场。"
关于AI Agent的发展,科莱特在报告中指出:"从生成式AI向AI Agent转型,具备感知推理能力的人工智能将彻底改变每个行业的规划与行动方式。每一家企业乃至国家,我们展望智能代理时代,作为一支能够处理任务的新型数字化劳动力,从客户服务到复杂决策,流程优化。"
工业AI与机器人化:制造业的智能化革命
英伟达正积极拓展机器人和工业AI领域,将AI技术应用于实体经济,黄仁勋对此表现出了极大的热情:"机器人时代已至,数十亿机器人即将涌现,数亿辆自动驾驶汽车,以及数十万个机器人化工厂和仓库将被顺利开发。"
Omniverse平台在工业应用中的表现令人印象深刻。科莱特详细介绍了几个案例:"台积电通过虚拟化设计晶圆厂节省数月工时,富士康加速技术将热模拟速度提升150倍,并借助Megatron系统最终使装配线缺陷率降低67%。"
汽车行业的合作也在深入推进。科莱特透露:"我们正与通用汽车合作开发下一代车型、工厂与机器人,运用英伟达人工智能模拟与加速计算技术。我们现已投入生产为梅赛德斯提供全栈解决方案,从新款CLA车型开始上路。"
人形机器人领域的布局更加前瞻。科莱特说:"我们发布了Isaac Groot,并赢得了全球首个开放、完全可定制的人形机器人基础模型,实现通用化推理与技能发展。"这种基础模型的意义在于为整个机器人生态提供了统一的AI底座。
医疗机器人的应用前景也很广阔。科莱特介绍:"医疗保健领域正在采用英伟达全新Isaac平台用于医疗模拟应用,基于英伟达Omniverse平台并运用英伟达Cosmos技术,该平台加速了机器人成像与手术系统的研发。"
黄仁勋对工业AI未来的预判很有前瞻性:"如今每个生产产品的工厂都将配备一个AI工厂,这个AI工厂将负责驱动创新,并为工厂自身开发和运营AI系统,同时也为工厂制造的产品和物品提供动力。"这种工厂+AI工厂的模式,可能是未来制造业的标准配置。
未来展望:AI革命的下一阶段
黄仁勋对AI产业未来的展望充满了雄心壮志,他认为:"我们正处于这一切建设的开端,因为AI的应用目前仍处于相当早期的阶段,我们正与具备推理能力的人工智能同行。"
技术发展的阶段性特征很明显,黄仁勋说:"人们正在思考所谓的推理时间缩放问题,当然它开创了一个全新的局面,我们已经进入一个新时代,推理环节将成为计算工作负载的重要组成部分。"这种从训练为主到推理为重的转变,将深刻改变整个AI产业的格局。
基础设施建设的规模将继续扩大,黄仁勋预测:"这都将成为一套全新的基础设施,我们正在云端全力构建这一体系。美国确实是早期的先行者,并且在美国云服务中可用,这是我们最大的市场,我们最大的装机量基地。"
企业级应用的普及也将加速,黄仁勋说:"除此之外,我们还将看到人工智能深入企业领域,采用本地部署模式,因为大量数据仍存储在本地,访问控制确实非常重要。将所有公司的数据迁移到云端确实非常困难。"
通信基础设施的AI化也是大势所趋,黄仁勋预言:"人工智能正在重塑今日电信业格局,未来大部分电信基础设施将实现软件定义化,并基于人工智能构建。6G网络将基于人工智能构建。"
最终的愿景是AI无处不在,黄仁勋总结说:"显而易见,每家汽车公司都将拥有AI工厂,很快就会出现机器人公司,而这些公司也将开发人工智能来驱动机器人。所以我们正处于这一切建设的开端。"
至顶AI实验室洞见
看完这场财报会议,只能说老黄这次真的是火力全开。
440亿美元的季度营收固然亮眼,但更重要的是他展现出的战略视野和执行力。从推理模型的爆发到Blackwell的全面投产,从主权AI的兴起到企业级应用的落地,英伟达几乎在每个重要赛道都布下了重兵。
对中美技术博弈的犀利分析,直接批评出口管制"大错特错",这种表态在当前政治环境下需要相当的勇气。
但他的逻辑又很清晰:技术封锁不仅无效,还会刺激竞争对手的创新。这种系统性思维超越了简单的商业考量,体现了一个技术领袖的战略眼光。
从技术角度看,推理模型的爆发式增长确实是个game changer。从训练时代到推理时代的转换,不仅改变了计算需求的模式,更重要的是标志着AI从实验室走向了大规模商业应用。老黄提到的"思考时间越长效果越好",这种推理时间缩放的概念,虽然个人并不完全认同(因为会出现过度思考的问题),但依然可能会成为下一个AI军备竞赛的焦点。
Blackwell架构的成功也值得玩味,70%的数据中心收入占比,这个数字在短短一个季度就达到如此高度,说明英伟达在产品定义和市场timing方面的功力确实深厚。更关键的是,他们还在持续推进产品路线图,GB300的发布时间表都安排得明明白白,这种可预测的创新节奏对整个生态都很重要。
企业AI的突破可能是最被低估的看点,从Cisco的40%准确率提升到百胜餐饮的6100家门店部署,这些案例说明AI已经不再是大厂的专利,而是开始渗透到各行各业的日常运营中。这种渗透的速度和深度,可能会超出很多人的预期。
不过,最让我兴奋的还是老黄对未来的展望,AI工厂、主权AI、工业机器人,这些概念串联起来就是一个完整的智能化社会蓝图。虽然听起来有点科幻,但考虑到英伟达过去几年的执行力,这些预言很可能会一步步变成现实。
这场财报会议既是对过去成绩的总结,更是对未来布局的宣示。
英伟达不仅要做AI芯片的王者,更要成为整个AI基础设施的构建者。
这个野心够大,执行力也够强。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。