黄仁勋:我的生存哲学是拆解、分享、遗忘 原创

近期已经发了很多英伟达,很多黄仁勋,但他做客Lex Fridman播客的这期刚上线的2.5小时对话(Lex Fridman Podcast #494,2026年3月24日上线)我还得发。因为很多内容是第一次讲。

近期已经发了很多英伟达,很多黄仁勋,但他做客Lex Fridman播客的这期刚上线的2.5小时对话(Lex Fridman Podcast #494,2026年3月24日上线)我还得发。因为很多内容是第一次讲。这期节目一半是技术,一半是他个人的生存哲学。后面这条线我更尤其兴趣,原因之一是技术的部分GTC上谈了很多。所以,也请原谅我写了这样一个总结性的,而非直接引用式的感性标题。我发文章很少这样做。

技术线从CUDA早年差点拖垮公司讲到今天130万组件的机架怎么设计,从四条scaling law讲到为什么"推理比预训练难得多",从电网闲置算力讲到OpenClaw为什么是"token的iPhone"。个人线同样密集:他谈了60个直属下属的管理逻辑、供应链CEO们的信任关系、编程职业的未来,也给出了一个在Joe Rogan播客中埋下的问题的答案。

黄仁勋:我的生存哲学是拆解、分享、遗忘

2025年12月,黄仁勋在Rogan节目里坦承自己"一直处于焦虑状态",说用了33年的那句"离倒闭永远只有30天"从来不是口号。脆弱感、不确定感、不安全感从未离开过他,今天早上醒来的感觉和创业第一天没有区别。在Lex面前,他给出了应对方法:把焦虑拆成具体问题,把问题分给能做事的人,然后忘掉它。"对自己狠一点。别哭了,起来干活。" 他把这套方法类比成AI训练中的系统性遗忘:"你不能什么都记着。"GTC 2026记者会上他还给了另外三个词:"别被解雇、别无聊、别死掉。"别被客户解雇,别因为无聊让公司失去战斗力,别让公司倒闭,"这三件事每一件都是高风险的。"

别被解雇、别无聊、别死掉,加上拆解、分享、遗忘,六个词,算是黄仁勋近期对外总结的人生方法论吧。当然,这期播客能放在标题里的关键词太多了:AGI、中国、Scaling Law、10万亿美元……以下是全部干货。

1. 极端协同设计:NVIDIA从芯片公司变成系统公司

"Extreme co-design",极端协同设计,是黄仁勋从2025年下半年开始在公开场合密集使用的一个词。GTC 2025 Washington(2025年10月)、CES 2026、GTC 2026,每次主题演讲都围绕这个概念展开。它的含义远超单个部门内部的优化,覆盖GPU、CPU、内存、网络、存储、电力、冷却、软件的全栈同步设计。在Lex的播客里,这个词同样贯穿了整期节目。

为什么必须这样做?他的起点是:当你往系统里加了一万台计算机,你希望获得的加速不是一万倍,而是一百万倍。一旦进入这种分布式计算的领域,计算机科学中的经典约束就会咬人。他引用了阿姆达尔定律,这条定律说的是系统加速的上限取决于无法被并行化的那部分工作量。假设计算只占总工作量的50%,即使把计算速度提升一百万倍,整体也只快了两倍。CPU、GPU、网络、交换、数据分片、流水线拆解全部变成瓶颈。

所以NVIDIA今天做的已经不再是"造最好的GPU",而是把所有这些组件当成一个系统来设计。

黄仁勋的直属汇报人数超过60人,几乎全部有工程背景,覆盖内存、CPU、光学、GPU、架构、算法、设计等各领域。他不做一对一会议,所有问题都在集体会议中讨论。讨论冷却方案时,网络专家和内存专家也在场,随时可以说"这对功率分配不行"或"这跟内存方案冲突"。"谁想退出就退出。但如果有人本该发言却没发言,我会把他叫回来。"

这种管理结构本身就是极端协同设计的映射。黄仁勋的观点是:公司的组织架构应该反映它要生产的产品形态。他专门批评了千篇一律的组织架构图,说很多公司不管做什么产品,组织架构长得都一样,这对他来说毫无道理。

GTC 2026上讲的Vera Rubin pod是这种设计哲学的最新产物:7种芯片、5种专用机架、40个机架、1.2 quadrillion即千万亿个晶体管、近2万颗NVIDIA芯片、超过1100颗Rubin GPU。单个NVL72机架有130万个组件、1300颗芯片,全部塞进一个19英寸宽的机架里。黄仁勋说NVIDIA预计每周要生产约200个这样的pod。他用了一句话概括设计哲学:"复杂度要尽可能必要,同时尽可能简单。"

他说这是人类造过的最复杂计算机。

2. "光速"工程法:74天的活,从物理极限推回去其实6天就够

黄仁勋有一个用了30年的工程方法论,他叫它"光速"(speed of light)。这个词不只是字面意思上的速度,而是他对"物理极限能做到什么"的简写。内存速度、数学运算速度、功耗、成本、时间、人力、制造周期,每一项都先问:物理极限在哪里?然后所有设计在此基准上做trade-off。

他举了一个例子:如果有人说某件事今天要74天,团队提出可以优化到72天,黄仁勋的做法是把问题推回零点。先搞清楚74天是怎么来的,再问如果完全从头设计、用今天最好的技术,理论上最快几天。答案可能是6天。

从74天直接优化很难有突破;但知道6天是可能的之后,再从6天出发讨论哪些compromise把它变成了74天,对话立刻不一样了。"连续改进"这个词他明确说不喜欢。 他要的是先回到第一性原理,再从物理极限出发做工程

黄仁勋在播客中盛赞Elon Musk用类似的系统思维在四个月内于孟菲斯建成20万GPU的Colossus超算。他分析了方法论的共通之处:极简主义设计,砍掉一切非必要环节;亲自到现场看工程细节。黄仁勋举例说Elon会直接跟一线工程师一起研究电缆怎么插进机架才能减少出错率。然后用个人的紧迫感驱动整条供应链把自己当成最高优先级。"他问每一件事:这有必要吗?必须这样做吗?必须花这么长时间吗?"

3. 四条Scaling Law:推理比预训练难,整个行业都低估了

2024到2025年间,"scaling law is dead"一度成为AI圈的热门论调。一些研究者认为,随着高质量训练数据逐渐耗尽,单纯靠堆数据和堆算力提升模型能力的路径已经走到头了。黄仁勋在播客里系统性地回应了这个判断,并提出他自己的四条scaling law框架。

"推理是小事,预训练才是硬活。"黄仁勋回忆说,这曾是行业共识。甚至有人说推理芯片应该又小又便宜,可以轻松商品化,NVIDIA那种大芯片太贵了。

他认为这完全不合逻辑。预训练本质上是记忆和泛化,是"阅读";推理是思考、规划、搜索、分解问题,是"解题"。"思考怎么可能比阅读省算力?" test-time scaling已经证实推理是极度计算密集的。NVIDIA在这个判断上押对了。

黄仁勋在播客中系统阐述了他的四条scaling law

第一条:预训练扩展。 OpenAI联合创始人Ilya Sutskever说"预训练结束了"的时候,行业一度恐慌。黄仁勋的反驳逻辑是:人类互相传授的大部分数据本身就是"合成"的,它是人创造、消费、修改、再生成的产物。AI现在能做同样的事,从真实数据出发做增强和合成。训练数据的瓶颈正在从"人类生成的数据量"转移到"算力"。大部分训练数据将是合成数据,这条scaling law不会见顶。

第二条:后训练扩展。 用更精细的数据做对齐和微调,进一步提升模型能力。

第三条:test-time扩展。 在推理阶段投入更多计算资源来提升输出质量,也就是"让模型在回答之前多想一会儿"。

第四条:智能体扩展 这是"乘法"。一个智能体可以生成子智能体,就像招聘员工比让CEO自己变聪明更容易扩展组织一样。智能体在运行中产生的数据和经验,又可以回流到预训练和后训练环节,形成飞轮。

"归根结底,智能的扩展只取决于一件事:算力。"

四条law之间的关系是循环的:智能体产出数据,数据回到预训练,预训练产出更好的模型,模型经过后训练和test-time优化后再驱动更强的智能体。每一轮循环都需要更多算力。

4. 硬件怎么预判算法方向:thought experiment比whisper更管用

AI模型架构大约每6个月迭代一次,硬件架构周期是3年。NVIDIA必须预判2到3年后的算法趋势。黄仁勋说他有三种方法:NVIDIA内部做基础研究和应用研究,自己动手建模型;作为全球唯一和所有AI公司都合作的AI计算公司,倾听行业面临的挑战;以及保持CUDA架构的灵活性,让它能随着算法风向调整。

但他最强调的方法其实更简单。坐下来做thought experiment。

Grace Blackwell机架专门针对MoE大语言模型推理设计。MoE的全称是Mixture of Experts,核心思路是让多个专家子模型按需激活而非全部参与计算。一年后的Vera Rubin机架加入了存储加速器和全新CPU,因为智能体需要访问文件、使用工具、做研究、调用子智能体,这些在Grace Blackwell设计时还不存在。

黄仁勋说他两年前就用一个thought experiment推导出了这些需求:"如果你要造一个数字工人,它需要什么?需要访问文件系统、需要做研究、需要用工具。"他把这个思维实验延伸得更具体:想象10年后最厉害的智能体是一个人形机器人,它走进你的厨房。它是会用你的微波炉热东西,还是从手指发射微波?它第一次遇到陌生微波炉时不会用,但连上网读完说明书,立刻变成专家。工具不会被AI淘汰,工具会被AI使用。

他说如果把GTC 2024的PPT翻出来,会发现当时描述的agentic系统架构和今天的OpenClaw完全吻合。

5. CUDA的生死豪赌:从加速器到计算平台的五步进化

GTC 2026恰好是CUDA发布20周年。CUDA在2006年发布,2007年随首批兼容GPU正式推向市场。今天它是NVIDIA整个AI计算帝国的地基,但在播客中,黄仁勋把故事拉回到CUDA之前,讲了NVIDIA如何一步步从图形加速器走向通用计算平台。

NVIDIA最初是一个图形加速器公司,专精但市场窄。黄仁勋从一开始就知道必须走向通用计算,但"加速"和"通用"这两个词天然矛盾:越通用越失去专精优势,越专精越没有市场规模来支撑研发。他描述了五个关键步骤:发明可编程像素着色器、在着色器中加入IEEE兼容的FP32浮点运算、在FP32之上搭建C语言接口Cg、从Cg演化出CUDA、把CUDA放到GeForce消费显卡上。

每一步都在扩大"能做的计算"范围,同时不放弃图形加速的专精。正是FP32兼容IEEE标准这一步,让原本在CPU上写科学计算的研究者发现了GPU的潜力。

CUDA作为技术本身是突破,但真正的豪赌是把它放到每一块GeForce里,不管玩家要不要。当时NVIDIA的毛利率只有35%,CUDA让GeForce的成本增加了50%,几乎吞掉了公司全部利润。黄仁勋回忆说,市值从约六七十亿美元一路跌到了15亿美元左右。

黄仁勋的逻辑链条是:计算平台的核心是开发者,开发者跟着install base走。 x86不是最优雅的架构,但它赢了;大量精美的RISC架构反而失败了。GeForce当时每年卖出数百万块,是把CUDA送进每个实验室和学校最快的通道。

"NVIDIA是GeForce建起来的房子。是GeForce把CUDA带给了全世界。"

这个决策花了十年才回本。黄仁勋对董事会说清楚了风险:消费者不会为CUDA买单,他们只认价格。但如果CUDA能进入工作站和超算领域,也许能回收利润。这个"也许"撑了整整十年。

黄仁勋说他推动重大决策从来不做突然宣布。从产生想法到正式决策,他会用数月甚至数年时间在每次会议、每场GTC、每个客户交流中逐步铺垫,用第一性原理推导让每个人自己走到结论。等到正式宣布的那天,员工的反应是"你怎么这么久才说"。收购Mellanox(NVIDIA网络战略的关键一步)也用了同样的方法:在宣布之前,他已经在内部和董事会反复讲了网络对于分布式计算的重要性,等到宣布收购那天,所有人都觉得顺理成章。

GTC的公开演讲同时也在塑造合作伙伴和行业的认知。产品准备好的时候,生态系统已经就位。

6. 供应链:CEO亲自飞到供应商那里画图讲道理

大约三年前,数据中心的主流内存还是DDR。黄仁勋亲自去找几家DRAM公司的CEO,说服他们HBM(High Bandwidth Memory,高带宽内存)将成为数据中心主流内存。"当时这话听起来荒谬。" 同样,他把手机用的LPDDR5低功耗内存推荐给超算,对方的反应是"手机内存给超算用?"结果三种内存(DDR、HBM4、LPDDR5)都创下了各自45年历史中的销售纪录。

NVLink-72的出现改变了超算的制造方式。过去,超算的组件运到数据中心再组装。NVLink-72密度太高,必须在供应链环节直接制造成完整超算,以2到3吨的单位按机架发货。这意味着供应链本身需要足够的电力来构建和测试这些超算。如果你想部署50吉瓦的超算、每周制造一批,那供应链每周就需要吉瓦级的电力。

黄仁勋亲自飞到供应商那里,解释市场变化、画图讲原理,然后请每家投入数十亿美元的资本开支。"因为他们信任我,我也尊重他们,给他们充分的提问机会,用第一性原理推导。等我讲完,他们知道该怎么做。"

Vera Rubin机架有200家供应商提供技术,130万个组件。黄仁勋说没有任何公司在历史上以NVIDIA的速度增长的同时还在加速增长。他把大量时间花在向上下游CEO们解释动态:增长驱动力是什么,近期会发生什么,中期方向在哪里。GTC 2026上坐在前排的几百位CEO,就是他这种信息同步策略的产物。

被问到是否担心供应链瓶颈(比如ASML的EUV光刻机、台积电的CoWoS先进封装、SK海力士的HBM产能),黄仁勋的回答是"不担心"。原因也简单:"我告诉了他们我需要什么。他们告诉了我他们会做什么。我相信他们。"

7. 台积电:三十年、几百亿美元、没有一份合同

NVIDIA与台积电(TSMC)的合作超过三十年,经手的业务规模达数百亿美元,但双方没有正式合同。

黄仁勋说台积电最被外界误解的一点是,以为它的核心竞争力只是晶体管技术。有更好的晶体管就能打败台积电?他认为远不止如此。台积电的制造调度能力才是真正的奇迹:面对数百家客户不断变化的需求,产能增减、紧急投片、客户间的优先级切换,它能在保持高良率、低成本、准时交付的同时把这一切协调好。"你的晶圆承诺什么时候到,就什么时候到,因为他们知道你在靠这个运营你的公司。"

台积电的第二个优势是同时在技术前沿和客户服务上做到世界级。大多数公司只能占一头:要么技术最前沿但服务一般,要么服务很好但不在技术最前沿。台积电两头都是世界级。

而在这之上,黄仁勋最看重的是信任。"我信任他们,愿意把公司建在他们之上。"

他透露2013年台积电创始人张忠谋邀请他出任台积电CEO,他婉拒了。他说自己已经在脑海里看到了NVIDIA未来的样子,不能离开。"不是因为这个邀请不够重量级,它是一个不可思议的邀请,但我就是没法接受。"

8. 电力:电网99%的时间都有闲置算力

电网的设计标准是峰值负载加余量,覆盖冬天最冷的几天、夏天最热的几天加上极端天气。99%的时间,电网大约只运行在峰值的60%。剩下的容量闲置着,因为必须随时待命。

黄仁勋提出了一个三方协作方案。第一方是客户:目前客户要求数据中心"六个九"的完美可用性,但CEO可能根本不知道自家运营团队签了什么合同。这些苛刻要求层层传递到电网公司,变成了不可能满足的基建压力。他打算直接跟各家CEO沟通。

第二方是数据中心:在电网峰值时自动降频、转移负载或启用备用发电。"如果电网告诉我们只能用80%的电,没问题。我们挪负载、降速度,关键任务转到其他数据中心。服务质量稍微降一点,但数据不丢。"

第三方是电网公司:提供更多层次的供电保障合同,按不同可靠性等级定价。"我不需要增加电网总容量,我只想用它闲着的那部分。"

在效率端,NVIDIA过去10年把AI计算效率提升了100万倍,而摩尔定律同期只贡献了约100倍。token成本每年下降一个数量级。"我们的计算机价格在涨,但token生成效率涨得快得多,所以单位token成本在降。" tokens per second per watt,每秒每瓦生成的token数,是黄仁勋反复强调的核心指标。

9. OpenClaw是"token的iPhone"

2026年初,一个名叫OpenClaw的开源项目成了AI圈最大的现象级事件。它最初叫Clawdbot,由奥地利开发者Peter Steinberger创建,后因Anthropic的商标投诉更名为Moltbot,再更名为OpenClaw。它的功能是在本地运行一个AI智能体,通过WhatsApp、Telegram等消息平台与用户交互,能自主执行任务、调用工具、管理文件。GitHub星标在72小时内突破6万,Peter本人在2026年2月宣布加入OpenAI,项目移交给开源基金会。黄仁勋在GTC 2026上把OpenClaw比作Linux,说"每家公司都需要一个OpenClaw战略"。

在Lex的播客里,他把这个判断展开得更充分。他说如果把GTC 2024的PPT翻出来,会发现当时描述的agentic系统架构和今天的OpenClaw完全吻合:智能体会使用工具、访问文件、做研究、有IO子系统、能派生子智能体。"OpenClaw为agentic系统做了ChatGPT为生成式系统做的事。"

NVIDIA在GTC 2026上推出了NemoClaw,一个基于OpenClaw的企业级安全框架,一条命令就能安装Nemotron模型和OpenShell运行时,加入权限控制和隐私保护。黄仁勋在播客中解释了安全层的设计逻辑,给智能体设定了"三选二"原则:智能体可以访问敏感信息、执行代码、对外通信,但任何时候只能拥有其中两项能力。

黄仁勋把token比作工厂产出的商品。计算从"检索系统"变成了"生成系统",从"仓库"变成了"工厂"。仓库赚不了什么钱,工厂直接关联收入。"有人愿意为每百万token付1000美元,这不是'会不会'的问题,只是'什么时候'。"

免费token、付费token、高端premium token正在分层,就像iPhone的产品线。智能体的爆发让他确信推理市场的拐点已经到来。"token的iPhone到了,它就是智能体。这是历史上增长最快的应用。直接起飞。"

他进一步推演了NVIDIA万亿美元收入的可能性。计算从存储驱动变成生成驱动,全球GDP中用于计算的占比将比过去高100倍。因为过去的计算机是仓库,现在是工厂。工厂直接关联收入。NVIDIA的供应链由200家公司分担,没有物理限制阻止它继续增长。"那个数字就是一个数字。"

10. 编程的未来:程序员从3000万扩展到10亿

黄仁勋认为coding的定义变了。今天coding等同于写specification,也就是描述你希望计算机做什么。按照这个定义,能写specification的人不再局限于懂编程语言的工程师。木匠加上AI就是建筑师,会计加上AI就是财务分析师兼理财顾问,水管工加上AI能提供的服务范围会爆发式扩大。 他估算会写code的人,也就是会写specification的人,将从3000万扩展到10亿。

在specification的精确度上,有一个频谱。他自己给公司定战略方向时会故意"欠规格",写到足够让43000名员工理解方向、能行动,但留出空间让他们做得比他想象的更好。具体到工程问题时可以写得更精确。这个"在specification频谱上选位置"的能力,就是未来编程的核心素养。

行业早年最确信AI会消灭的职业是放射科医生,因为计算机视觉在2019到2020年左右就达到了超人水平。结果呢?所有放射科平台都用上了AI,但放射科医生的数量增加了,而且全球出现了短缺。原因简单:AI让扫描判读变快了,于是医院能做更多检查、更快出诊断、看更多病人、赚更多钱,需要更多放射科医生。"恐慌性预警做过了头,吓得人不敢学这个专业,反而造成了人才缺口。"

黄仁勋说NVIDIA的软件工程师数量会增加而非减少,因为他在意的是解决多少问题,而不是写多少行代码。

对于所有人的建议,他出奇简单:不管你是木匠、水管工、会计还是大学生,现在就去用AI。如果你连AI怎么用都不会,你可以直接问AI。"你没法走到Excel面前说'我不会用Excel',但你可以对AI说'我不会用AI'。"

11. 中国:全球创新最快的国家

播客中Lex提到黄仁勋最近刚去过中国。黄仁勋对中国科技生态的评价正面和具体。他列了五个因素解释中国为什么创新速度全球第一。

全球约50%的AI研究者是中国人,大部分仍在中国;中国科技业在移动云时代崛起,天然亲软件;各省市长竞争催生大量公司,所以才有那么多EV公司、那么多AI公司;社会文化中同学关系极强,知识共享快得像天然的开源社区;剩下来的企业经过了竞争淘汰,"能活下来的都是精品"。

他特别提到一个文化差异:美国领导者大多是律师出身;中国是从曾经的欠发达中建设起来的国家,领导者大多是工程师出身。"这是一个建设者的国度。"

对于开源,黄仁勋认为中国公司大量贡献开源是自然的。"他们的工程师,兄弟在那家公司,朋友在这家公司,都是同学。同学关系意味着一辈子的兄弟。那你到底在保护什么?不如直接开源。"开源社区的加速效应叠加残酷竞争,最终产出了极强的公司。

12. "我认为我们已经实现了AGI"

"我们已经实现了AGI"这句话在播客上线几小时内就被剪成短视频全网传播。但和大多数病毒式传播一样,脱离语境之后意思完全变了。黄仁勋说的AGI,不是科幻电影里那种通用超级智能,而是对Lex提出的一个非常具体的假设的回应。

Lex的定义是"能创办并运营一家十亿美元公司的AI系统"。黄仁勋说这已经可以做到了,只要你没说"永远"。一个Claude系统完全有可能创建一个web应用,几十亿人用50美分的价格短暂使用,公司估值过十亿然后很快消失。互联网时代大量这类公司出现过,当时那些网站的复杂度并不比今天的OpenClaw高。

"但10万个这样的智能体造出NVIDIA?概率是零。"

他进一步区分了intelligence和humanity。Intelligence是感知、理解、推理、规划这个循环,是功能性的定义。他认为intelligence正在被商品化。但humanity,包括性格、韧性、同理心、容忍尴尬的能力,这些东西无法用功能性语言定义,也不会被商品化。

"我的直属下属在各自领域都比我聪明,但我坐在60个超人中间指挥,这本身就说明intelligence不等于everything。" 他说社会长期以来把太多东西压缩进了"intelligence"这一个词里,真正应该被抬高的词是humanity、character、compassion。

13. 开源Nemotron:NVIDIA的长期战略武器

NVIDIA开源Nemotron 3 Super时,发布的不只是模型权重。这个1200亿参数、120亿活跃参数的混合Mamba-Transformer MoE模型,同步开放了超过10万亿token的训练数据、训练方法和强化学习环境。

黄仁勋解释了三层动机。第一层是co-design: 通过自研模型理解AI架构演进方向,为硬件设计提供参照。他特别提到Nemotron 3是Transformer和SSM(状态空间模型)的混合体,不是纯Transformer,这种架构探索本身就在推动NVIDIA对未来计算系统的理解。

第二层是扩散: 如果所有好模型都是闭源的,研究者没法创新,行业没法跟进。NVIDIA有规模、有技能、有动机持续做这件事。开源能激活每个行业、每个国家加入AI革命。

第三层是多模态: AI不只是语言。生物、化学、物理、流体力学,这些模态都需要有人建模型。"我们不造车,但要确保每家车企都有好模型可用。我们不做药物发现,但要确保礼来能拿到世界级的生物AI。"

14. 六个词的生存哲学

黄仁勋处理压力的方法在前文已经展开。在播客中他还补充了几个层面。

第一是"孩子心态"。 面对任何新挑战,他的第一反应是"How hard can it be?",有多难啊?他说你不应该提前模拟所有可能的setback、失望和humiliation。你应该带着"这会很棒"的心态走进去,然后在setback真的发生时再打开另一个开关:忘掉它,继续走。

第二是持续重新评估。 他说自己对未来的判断建立在一组假设之上。只要这组假设没有实质性变化,他对未来的模拟结果就不会变,他就会继续追。过去十年deep learning的发展,给了他比前十年更大的信心。

第三是在公众面前推导。 他在每一次会议中都公开推导自己的思考过程,让所有人能看到他是怎么一步步得出结论的。这样做的好处是,任何人都可以在推导链的任意环节插入反对意见,而不需要直接否定最终结论。Lex观察到,和他对话时能明显感到他在实时推理,而且对方可以"steer"他的思考方向。黄仁勋说这需要对embarrassment有极高的容忍度。

第四是不做继任计划。 他说不相信传统的继任计划,但如果你认真对待公司在你之后的命运,该做的事情今天就能做:尽可能快地把知识、洞察、经验传递给身边的人。他学到什么新东西,"一秒都不在我桌上停留",立刻转发给可能用得上的人。他说最理想的结局是在岗位上去世,最好是瞬间的。

15. DLSS 5争议、太空计算与Doom

DLSS(Deep Learning Super Sampling)是NVIDIA的AI画面增强技术,用深度学习在游戏运行时实时提升画面分辨率和帧率。此前版本已被广泛采用。GTC 2026上NVIDIA发布了DLSS 5,这一代引入了生成式AI能力,号称能实现"神经渲染"。但玩家社区反应强烈,担心AI生成会让游戏画面变成千篇一律的"AI slop"(AI垃圾)。黄仁勋在GTC记者会上回应说玩家"完全错了",这番话进一步激化了争议。

在这期播客中他的口气缓和了许多。他承认理解玩家的担忧,也直说自己不喜欢AI生成内容越来越同质化的趋势。但他强调DLSS 5和通用生成式AI不同,它是3D引导的、受游戏原始几何体和材质约束的,艺术家对最终效果有控制权。未来甚至可以通过提示词定义渲染风格。"DLSS是给艺术家的工具,不是给AI的自由裁量权。"

NVIDIA的GPU已经在太空卫星上运行了。卫星搭载高分辨率成像系统持续扫描地球,如果把所有数据传回地面,带宽根本扛不住。AI必须在轨道上完成边缘计算,丢掉不需要的数据,只保留有变化的部分。技术难点是散热:太空没有对流也没有传导,只能靠辐射。黄仁勋说解决方案大概是"在太空里放巨大的散热板"。不过他对此的态度很务实,地面上还有大量闲置电力没有利用,那才是短期的低垂果实。

被问到最伟大的游戏,黄仁勋毫不犹豫选了Doom。它把PC从办公自动化工具变成了家庭和玩家的个人计算机,文化意义和产业意义的交汇点无出其右。从纯技术角度,他选了Virtua Fighter。GeForce至今仍是NVIDIA最重要的营销渠道:人们在十几岁的时候通过打游戏认识NVIDIA,上大学后开始用CUDA。

16. 意识、mortality与"我真的不想死"

黄仁勋说他的芯片大概永远不会"紧张"。AI会识别和理解人类的情绪,但不会感受这些情绪。两台计算机面对完全相同的输入,不会因为"心情不同"而产出不同质量的结果。人类会。这种由情绪驱动的performance波动,是人类特有的。

对于mortality,他说得很直接:"我真的不想死。我有好家庭,有重要的工作。这不是一生一次的体验,这是人类一次性的体验。"

他描述了一个带着科幻色彩的构想:先把一个人形机器人送上飞船,让它在飞行途中不断进化升级;与此同时,他在地球上的一生已经被记录在互联网上,收件箱、发言、决策、所有痕迹都变成了训练他个人AI的数据。等到时机成熟,把这个AI以光速传输出去,追上那个机器人。

Lex问到意识是否有非计算的部分。黄仁勋没有给出确定的答案,但他做了一个区分:intelligence是一个功能性的词,可以精确定义(感知、理解、推理、规划);而humanity,包括意识、情感、compassion,是一个远比intelligence大的词。"我的一生证明了一件事:在intelligence曲线上比周围所有人都低,不影响你成为最成功的那个人。" 他说AI让intelligence变成commodity之后,真正应该被重新抬高的词是humanity。


这期播客覆盖的话题从晶体管级的技术细节一直到意识和mortality的哲学讨论,但贯穿始终的有一条主线:黄仁勋眼中计算的本质转变。从存储到生成,从仓库到工厂,从检索到推理,从单GPU到整个数据中心作为一台计算机。这个转变驱动了NVIDIA从芯片公司到系统公司到平台公司再到"AI工厂基础设施提供商"的整个演化路径,也解释了为什么他对NVIDIA的增长有如此坚定的信心。

而支撑这一切的底层操作系统,不是某个技术架构,是一个62岁的人每天早上4点醒来,在焦虑中拆解问题、分享负担、忘掉setback、然后走进下一天的能力。

核心问答

Q1: NVIDIA的核心护城河到底是什么?

CUDA的install base。技术本身可以被复制,但43000名员工持续迭代了13个大版本、数百万开发者把软件栈建在上面、覆盖每一个云平台和每一个行业。加上每年一代的执行速度,开发者今天写的代码六个月后自动获得十倍性能提升。这种"install base × 执行速度 × 信任"的组合,是任何竞争者从零开始几乎无法复制的。

Q2: 推理市场的拐点为什么是现在?

三个因素叠加。第一,test-time scaling证明了推理是重计算任务,不是轻量级的"查表"。第二,智能体的爆发让推理需求从"回答一个问题"变成"完成一整个工作流",token消耗呈数量级增长。第三,token开始分层定价,从免费到高端,intelligence变成了可计价的商品。黄仁勋说token工厂就是AI时代的iPhone,"历史上增长最快的应用,直接起飞。"

Q3: 黄仁勋如何在焦虑中运转34年?

三个动作加三个心态。动作是拆解(把焦虑分解为具体问题)、分享(把问题分给能做事的人)、遗忘(不留在昨天)。心态是孩子心态("有多难啊?"走进去再说)、持续重新评估(假设没变则结论不变)、容忍embarrassment(在公众面前推导、犯错、修正)。他把这套方法直接类比AI的系统性遗忘:"你不能什么都记着。"GTC 2026记者会上他把这些浓缩成了六个词:别被解雇、别无聊、别死掉。加上拆解、分享、遗忘。

来源:至顶AI实验室

0赞

好文章,需要你的鼓励

2026

03/24

15:18

分享

点赞