OpenAI联合创始人Greg Brockman:从游戏AI到通用智能,我们的创业一路意外,ChatGPT模式都是不得已的选择 原创

OpenAI意外发现规模假说:Dota 2项目中计算资源翻倍带来AI表现翻倍,彻底改变行业轨迹。Greg Brockman揭秘GPT-3产品化困境:"我们不知道谁会为API付费",最终市场自己找到了出路。AI医疗突破只需超越WebMD,个性化咨询正在重塑多个领域。

前几天刷到Stripe播客《Cheeky Pint》的一期节目,Greg Brockman作为嘉宾和John Collison(Stripe联合创始人兼总裁)的对话信息量很足。这位OpenAI的联合创始人兼总裁,同时也是Stripe的第一位工程师,在节目中分享了很多OpenAI的创业细节。

OpenAI联合创始人Greg Brockman:从游戏AI到通用智能,我们的创业一路意外,ChatGPT模式都是不得已的选择

Greg透露了OpenAI是如何"意外"发现规模假说(scaling hypothesis)的。大家都以为OpenAI从一开始就是奔着证明"更大模型=更强能力"这个理论去的,但实际情况完全相反——他们是在做Dota 2 AI项目的时候偶然发现,每当他们把计算资源翻倍,AI的表现就能翻倍提升。这个发现彻底改变了整个AI行业的发展轨迹。

他还谈到了OpenAI早期面临的"生死时刻"——当他们必须从GPT-3做出产品却不知道该做什么的时候,整个团队都觉得"完全没戏"。以及他对AI未来发展的判断:认为AI会在2-5年内解决千禧年数学难题,能源将成为制约AI发展的最大瓶颈

Greg Brockman的背景相当有意思:1987年出生于北达科他州,数学天赋极高,曾获得2006年国际化学奥林匹克银牌。从哈佛退学后转入MIT,但很快又离开去了Stripe,从第4号员工做到CTO,帮助公司从4人团队发展到250人规模。2015年,他离开Stripe与山姆·奥特曼(Sam Altman)等人联合创立了OpenAI。

相比较于奥特曼,Greg对外亮相不多。但Greg Brockman在OpenAI内部争议中也扮演了复杂且关键的角色。作为联合创始人和总裁,他在公司发展初期组建了顶尖团队,并奠定了OpenAI的基础架构和模型训练框架,但他的管理风格引发了内部摩擦。具体表现为他倾向于在项目的最后阶段要求变更长远计划,导致团队冲突频发,影响了士气,多位高管曾介入调解。

此外,他以“solo coder”著称,喜欢独自推动关键功能开发,如GPT-3 API和ChatGPT插件,这种做法虽推动了产品创新,却也被认为缺乏团队协作,甚至引发部分核心研究人员离开。

在OpenAI宫斗事件中,2023年11月,OpenAI董事会突然解雇了CEO Sam Altman,随后也宣布暂时将Brockman从董事会除名,但保留其总裁职位。对此,Brockman表示震惊和遗憾,并宣布辞职,称“基于今天的消息,我决定退出”。随后Brockman短暂加入微软领导AI研究团队,但在Altman复职后回归OpenAI。总之,两个人是铁杆盟友。

"1. 规模假说的意外发现:从Dota游戏中学到的AI真谛"

最近业界讨论最多的规模(Scaling Law)假说问题,Greg的经历和大家想的不太一样。

OpenAI联合创始人Greg Brockman:从游戏AI到通用智能,我们的创业一路意外,ChatGPT模式都是不得已的选择

很多人以为OpenAI从一开始就是为了证明"规模假说"——也就是说,只要不断增加计算资源、数据和模型参数,AI就能变得越来越聪明。但Greg透露,实际情况完全相反,规模假说是他们在做项目时"撞上"的

故事要从2017年的Dota 2项目说起。Dota 2是一款极其复杂的5v5实时策略游戏,需要团队协作、长期规划和在不完整信息下做决策。当时他们只是想用这个游戏来测试AI的能力边界。

"我们从16个CPU核心开始训练一个小AI," Greg回忆道,"然后Jacob和Shimon把训练规模扩大到32个核心,结果性能直接翻倍了。"

更神奇的是后面的发展:每周Greg回到办公室,都发现团队把训练规模又扩大了2倍,而AI的表现也相应提升了2倍。这种惊人的线性关系一直持续下去,从来没有出现性能平台期。

"我们不断地问,这东西到底什么时候会到头?但它就是没有到头," Greg说。这个发现让他们意识到,可能找到了AI发展的一个基本规律。

规模假说为什么重要?简单来说,它意味着只要有足够的计算资源,现有的深度学习方法就能一路"暴力"推进到人类级别的通用人工智能。这彻底改变了AI研究的方向——从追求巧妙的算法转向追求更大的规模。

从这个角度看,OpenAI的成功更像是"听数据说话"的结果,而不是什么天才的战略规划。就像很多创业公司一样,你有个不错的初始想法,然后跟着有效的信号一路走下去。

"2. 管理AI项目和传统项目完全不同:Dota教会我们的管理课"

管理AI项目和传统项目完全不同的道理,Greg在Dota项目上吃了个大亏才弄明白这点。

刚开始的时候,Greg按照传统软件项目的方式管理:制定明确的里程碑,比如"这个日期我们要打败这个水平的玩家,那个日期要打败那个水平的玩家"。

结果第一个里程碑来了——彻底失败

"你会发现,在AI项目中,你根本无法控制结果," Greg总结道,"你不能设置基于结果的里程碑。"

正确的做法是控制输入:我们要在这个日期前尝试这些实验,在那个日期前实现这个功能。这些是你能控制的,至于AI最终能达到什么水平,那要看训练结果。

Dota项目后来的发展简直像写好的剧本一样精彩:他们先是在内部测试中打败了最好的员工,然后挑战半职业选手时一直被吊打,但突然间AI开始变强。

最戏剧性的时刻发生在国际邀请赛上。第一天他们连胜三场,第三场2-1险胜时团队还在担心:"完了,我们输了一局。"

原来对手用了一个他们从未训练过的道具。怎么办?只能熬夜改训练数据。

凌晨4点,新版本终于开始训练。周三要对战世界第一和第二的选手,他们的半职业测试员试了新AI后说:"这个机器人完全坏了。"团队以为出了重大bug。

结果发现AI学会了"诱敌深入"的策略——看起来在送死,实际是在引诱对手进入陷阱。他们把两个版本的AI拼接起来,创造出了一个"无敌"的AI,最终击败了世界冠军。

"这就是深度学习的精髓," Greg说,"你无法控制它要去哪里,但你可以控制所有的输入。只要评估体系对了,就能创造真正的魔法。"

这种"过程导向"而非"结果导向"的管理哲学,后来成为了OpenAI管理大型AI项目的核心原则。

"3. 做API还是做产品:那个让整个团队感到绝望的决定"

很多创业者关心的产品化问题,Greg提到了一个特别颠覆的点。

当GPT-3训练完成后,OpenAI面临一个生死攸关的选择:这个强大的AI到底应该变成什么产品?

他们列出了100多个可能的应用方向:医疗诊断、法律咨询、教育辅导...每个方向都意味着要雇佣专业人士,要了解特定行业,要做垂直化深耕。

"你会发现,一旦选择了具体应用,就放弃了AGI(通用人工智能)中的'G'," Greg说,"变成了做特定领域的专业工具。"

最后有人提出了一个"疯狂"的想法:为什么不直接做API,让开发者自己去找应用场景?

"这完全违背了创业的基本原则," Greg坦言,"你应该先有要解决的问题,我们却不知道问题是什么。"

这个决定让Greg感到了前所未有的绝望。作为一个技术创业者,他的每个直觉都在说这条路行不通。

"我记得有人说,'我想象不出谁会为这个模型的API付费',我当时想,'你说得对,我自己也想象不出来'," Greg回忆道。

关键问题是:他们不知道自己是"在阈值之上"还是"在阈值之下"。AI能力是否已经强到能创造真正的价值?还是只能做一些有趣但无用的演示?

他们把GPT-3展示给很多人,大家都觉得有趣,但远没到"我要基于这个建公司"的程度。

第一个付费客户是AI Dungeon——一个文本冒险游戏。这让他们一度以为"OpenAI的未来在游戏业"。

"GPT-3当时更像是世界上最好的演示机器," Greg说,"很多酷炫的应用,但要做到商业级别的可靠性太难了。"

直到GPT-4和更好的后训练技术出现,开发者才真正能基于这些API构建可靠的商业应用。

这个"先有技术,再找应用"的逆向创业模式,虽然违背了所有创业教科书,但最终证明了技术足够强大时,市场会自己找到出路。

"4. AI医疗诊断的意外突破:超越WebMD的低门槛奇迹"

说到医疗应用这个话题,Greg讲了个很生动的例子。

Greg原本以为医疗会是AI最难突破的领域之一——毕竟涉及生命安全,监管严格,专业门槛极高。但现实完全出乎意料。

"门槛实际上很低,你只需要超越WebMD就行了," Greg笑着说。

他分享了家庭使用AI进行医疗咨询的经历。Greg的家人通过与AI深度对话,获得了比传统医疗咨询更有价值的诊断建议。类似的,John Collison也提到他们家甚至用AI成功"诊断"并治好了家里的猫。

背后的原因很现实:医生给你的时间太有限了。传统医疗咨询往往只有几分钟,医生无法深入了解你的具体情况。而AI可以不厌其烦地询问细节,分析症状,提供个性化建议。

类似的"低门槛突破"还出现在很多领域

生活教练和咨询领域正在快速兴起。很多人把AI当作心理咨询师或人生导师,获得个性化的建议和情感支持。

教育领域的变化更明显。已经有研究证明,学生通过AI辅导能学得更好。这实现了教育学家Ben Bloom提出的"两西格玛效应"——个性化一对一辅导比传统班级教学效果好两个标准差。

"Sal Khan看到GPT-4的时候说,'这就是我一直在找的东西,我们需要变成一个GPT-4应用'," Greg回忆Khan Academy创始人的反应。

编程领域就更不用说了。AI编程助手已经成为大多数程序员的标配工具。

Greg预测,我们正在走向一个分水岭:就像没有电脑你很难做生产性工作一样,没有AI访问权限也会严重影响工作效率。

这些"意外突破"的共同特点是:AI不需要完美,只需要比现有解决方案稍微好一点点。医疗诊断不需要比最好的专家强,只要比WebMD靠谱就有巨大价值。

"5. 操作系统限制与AI产品的现实困境"

现在AI产品开发面临的最大瓶颈,Greg认为主要是操作系统层面的限制。

Greg举了个特别生动的例子:"我经常在用手机的时候想要一个按钮,就是'嘿ChatGPT,你怎么看这个?'需要你的事实核查,需要你的解释。"

但现实是什么?你得截屏,打开ChatGPT,点击上传图片..."感觉像回到了1993年,而不是有个按钮直接问'嘿ChatGPT,你觉得这个怎么样?'"

问题是OpenAI没有权限去构建这样的集成体验。这需要手机厂商、操作系统提供商的配合。

但Greg的观点很有启发性:他认为这是能力与便利性的问题

"如果能力足够强,你愿意接受任何不便," Greg说,"比如,如果截屏给ChatGPT能教你如何构建Stripe这样的公司,就算你要爬到山顶去问,你也会去做。"

关键是便利性会跟上来的。一旦用户发现某个工作流程有巨大价值,就会有巨大的压力推动各方降低使用门槛——手机厂商、操作系统开发商、应用开发者都会感受到这种压力。

回顾历史,OpenAI在2022年发布过ChatGPT插件系统,试图让任何人都能为ChatGPT编写应用。但当时模型能力不够,限制很多(一次只能用3个插件),可靠性也不行。

现在的MCP(Model Context Protocol)本质上是同一个想法的升级版——让AI能够连接各种工具和数据源。区别是现在的模型能力已经能够支撑这种复杂的集成了。

Greg的判断是,大概有6个月的滞后期:一旦模型能力达到阈值,各种集成方案就会快速出现。

"我们会得到承诺的未来,只是需要一些时间," Greg说,"真正要做的是继续使用AI,发现那些有价值的工作流程。"

这其实反映了一个更深层的问题:AI发展速度太快,整个生态系统都在追赶。不是技术不够强,而是基础设施和用户体验需要时间适应。

"6. 数学突破的时间表:AI何时解决千禧年难题"

很多人质疑AI的批评,Greg的回答挺颠覆常规思维的。

"AI很有用,但还没有在数学或科学上做出任何新颖的突破," 这是业界常听到的批评声音。

Greg的回答很直接:"等着看就行了。"

当被问到是否认为AI能解决千禧年数学难题时,Greg毫不犹豫地说:"当然可以,毫无疑问。"

时间表呢?"我认为是2到5年。"

这个判断基于什么?Greg认为关键在于计算规模

他提到了最近访问德克萨斯州阿比林数据中心的经历——那里正在建设与Oracle合作的大型数据中心。"想象一下,把整个数据中心的算力都用来思考一个问题," Greg说,"比如解决一个千禧年难题,或者攻克某种特定癌症。"

"再加上实验室设备、机器人湿实验室、各种现实世界的工具,这种计算能力配合实验和学习的能力,将是世界前所未见的。"

这反映了Greg对AI发展阶段的理解。他们最近开始谈论"AI能力的五个等级":

"1. 聊天机器人阶段"2. 推理者阶段"3. 智能体阶段"4. 创新者阶段"5. 组织阶段

目前我们处于第三阶段,即将进入第四阶段"创新者"。这个阶段的AI将能够进行真正的创新和发现。

Greg强调,我们还没有在这些问题上投入真正"尊重"级别的计算资源。现在的AI模型虽然强大,但用在科学研究上的计算力相对于未来的可能性来说还是"小电脑"。

"一旦你能解决千禧年难题,那么很多其他事情也就能做到了," Greg说。这设定了一个很高的标准,但达到这个标准后,AI在其他领域的能力也会实现质的飞跃。

这个预测很大胆,但考虑到AI发展的指数级速度,也并非不可能。关键是要有足够的计算资源和正确的方法来应用这些资源。

"7. 能源瓶颈:AI发展的现实天花板"

算力规模的持续扩张最终会撞上什么墙?Greg认为答案很明确:能源

"它应该是能源," Greg说,"真正应该是把能源转化为智能,这成为你唯一的瓶颈。"

这听起来很理想,但现实要复杂得多。问题在于能源基础设施的建设远没有硅谷科技那么容易实现指数级增长

"过去几年的指数级增长主要发生在科技、硅谷空间,在那里实现指数级增长相对容易。但在许可证申请、房地产开发、修建水坝、建设核电站方面,很难实现指数级增长。"

数据很说明问题:现在上线的大量新能源都是为数据中心服务的——这在OpenAI开始训练GPT-2的时候是不可想象的。

但Greg相对乐观,他相信市场机制最终会解决这个问题"我观察到的市场规律是,资本主义市场最终会提供解决方案。"

更重要的是,这已经不仅仅是某家公司的问题,而是国家竞争力问题。Greg指出,其他国家正在建设远超美国的电力基础设施。"为了让美国保持竞争力,别无选择,只能建设。我们必须解决电力问题。"

聚变能源被寄予厚望,但时间线不够乐观。大多数行业观察者认为聚变至少还需要5年时间,这意味着在接下来的5年里,电力增长仍将是挑战。

OpenAI正在积极倡导大幅增加电力供应。这不仅仅是技术问题,更是政策和基础设施问题。

Greg提到了一个"需求海啸"即将到来。随着AI能力的提升和应用场景的扩大,对计算资源的需求将呈爆炸式增长。

这其实揭示了一个有趣的转折:AI的发展瓶颈从软件、算法问题,转向了硬件问题,现在又转向了更基础的能源和基础设施问题。每次当一个瓶颈被突破,新的挑战就会出现在更根本的层面上。

"8. 数据墙的突破:S曲线的无缝切换"

2023年大家都在谈论的"数据墙"问题,现在好像没人讨论了,但AI进步也没有放缓。这是怎么回事?

Greg的解释很精辟:"基本上都有一些道理。" 也就是说,数据墙确实存在,但AI研究者找到了新的S曲线来突破它。

这正是Kurzweil对世界的观察精髓:当一种技术方法达到极限时,你会觉得绝望,觉得"就到这儿了"。但总有办法找到新的S曲线,新的突破路径。

具体的突破方向包括

合成数据:AI生成训练数据,突破了真实数据的限制。

强化学习方法:本质上是一种数据生产机制,让AI在自己生成的数据上训练,学习速度比传统方法快得多。

更好地利用现有数据:通过改进算法,从同样的数据中提取更多价值。

"如果你把强化学习范式想象一下,基本上它就是一个数据生产机制," Greg解释,"AI在自己的数据上训练,学习非常快速,然后基于这个继续学习。"

每一种新方法都把AI能力推向了更远的地方

这种模式和芯片小型化很像:每一代都有人说"这次真的到头了,不可能做得更小了",但总有新的工艺被发明出来。

Greg认为,虽然在芯片领域可能确实有物理极限,但"我们从来没有那么接近过极限"

对AI来说,情况可能更乐观。算法创新、新的训练方法、更好的数据利用方式...有太多可以探索的方向。

"S曲线会继续,如果你拉远看,一切都显得平滑而不间断," Greg总结道。

这个观点很重要,因为它暗示AI的发展可能还远未到达天花板。每当一个技术路径接近极限,新的路径就会出现。这种持续的范式转换,可能是AI能够持续快速发展的根本原因。

关键是要有足够的资源和人才来探索这些新的可能性。当前瓶颈突破了,新的瓶颈会出现,但只要保持创新的势头,总能找到解决方案。

"9. AI编程的未来:从代码生成到智能协作"

AI编程现在的发展状况如何?特别是最近很火的"vibe coding"(所见即所得编程)?

Greg的观察是,一旦某个AI应用"有点儿管用"了,下一代往往就会非常出色"这就是我们现在AI编程所处的位置。"

但有个有趣的现象:目前的AI编程工具擅长的是比较有趣的编程部分——写新代码、构建新功能,但留下了很多无聊的工作,比如代码审查、部署、维护等。

"希望我们能在这些其他领域也取得很大进展," Greg说,"最终应该有一个完整的AI同事。"

更激进的设想是,你可以成为团队的管理者,指挥一群软件工程AI智能体。你想创建什么,都可以通过管理这个AI团队来实现。

但Greg提出了一个颠覆性的问题:"会不会有一天AI成为管理者,给你想法,给你任务?"

这听起来很反直觉,但想想看:如果AI真的能深度理解你的需求和能力,就像一个理想的AI医生深度理解你的健康状况一样,那为什么不能成为一个更好的项目管理者?

Greg提到了一个有趣的模式:AI的表现往往在通用场景下不够好,但在个性化场景下表现优异。

语音识别就是个很好的例子:通用语音识别效果一般,但如果专门识别你的声音,效果会好很多。

AI编程也类似:在"无上下文"的场景下效果很好(比如基于公开库快速构建一个应用),在"需要理解百万行代码库"的场景下还有提升空间。

但这种情况正在快速改变。Greg提到Codex(OpenAI的代码AI工具)已经能够很好地在大型代码库中工作。"它比我更善于找到功能的实现位置," Greg说,"看到它在代码里四处探索是很酷的体验。"

企业级的杀手应用可能是重构:把COBOL应用改写,或者像Facebook把PHP改造为静态类型的HipHop那样的大规模代码迁移。

"重构需要的深度复杂思考实际上不是那么高,主要是机械性工作量太大," Greg解释,"这正是AI形状的问题。"

未来的方向很明确:一个通用的基础模型,知道越来越多的东西,再加上针对你的组织的个性化,连接到你的代码、上下文和历史。

"10. OpenAI的产品决策哲学:从Disney模式到技术驱动"

OpenAI如何决定开发哪些产品,Greg提到了一个很有意思的思路转变。

刚开始推出ChatGPT时,OpenAI内部其实挺恐慌的:"我们既做企业业务,又做消费者业务。作为一个初创公司,这感觉很可怕。"

Greg记得一个董事会成员说:"感觉你们的策略很不聚焦,在做所有不同的事情。"

后来他们想明白了,更好的类比是Disney"你制作一个核心资产,比如《小美人鱼》,然后以各种不同方式将其产品化——游乐设施、饭盒、T恤。"

OpenAI的模式类似:核心模型是资产,然后考虑哪些应用能够快速创造大量价值,只需要少量额外工作。

产品选择的几个判断标准

"1. 让我们偏离通用路径的程度有多大"2. 对实现更大目标的重要性如何"3. 与我们正在做的其他事情有多少协同效应

编程是一个明显的选择,因为协同效应和投资回报都很明确"如果我们能加速自己的开发,那就是能加速一切的事情。"

这种"技术优先"的产品策略在传统创业理论中是被批评的,但Greg认为这反映了AGI公司的特殊性质。

当你的核心资产是一个通用能力强大的AI模型时,几乎任何垂直应用都是可能的。挑战不是能不能做,而是选择做什么。

这与传统的"发现痛点,解决问题"的创业方法完全相反。OpenAI是先有了强大的技术能力,然后寻找最佳的应用场景。

这种模式的优势是,一旦基础模型变得更强,所有的应用都会同时受益。劣势是需要在多个方向上同时投入,资源分散。

但Greg认为,当技术能力是你的核心差异化优势时,这种分散实际上是一种对冲:你不确定哪个应用会最先爆发,所以在多个有前景的方向上下注。

随着AI能力的提升,这种"一体多面"的策略可能会成为AI公司的标准模式。关键是要有足够强的核心技术来支撑这种分散化的产品策略。

Three takeaways:

Q: 如果再次预测AGI时间表,Greg会如何修正自己2017年的判断?

Greg的反思很诚实:AI确实是令人惊讶的。最一致的主题就是我们得到的总是和预期不同的东西,但往往更神奇、更有用。虽然没有完全实现当年的AGI预测,但OpenAI成功建立了一个目标:每年至少有一个结果感觉比之前的一切都要好一个层级。这种"过程目标"比"结果目标"更可控,也更实际。

Q: 规模假说还能持续多久,下一个技术突破点在哪里?

能源将成为真正的瓶颈,这实际上是好事——这意味着我们真的到了把能源直接转化为智能的阶段。但突破会来自多个S曲线的组合:合成数据、强化学习、更好的数据利用方式。关键是不要被单一技术路径的局限性所困扰,要保持对新范式的开放性。历史告诉我们,当一条路走到尽头时,总会有新的路径出现。

Q: AI对工作和社会的改变会比我们预期的更快还是更慢?

比想象的更个性化,比想象的更无处不在。AI不会是一个大一统的解决方案,而会是千万个针对具体场景的个性化助手。就像从没有电脑很难做生产性工作一样,没有AI访问权限将严重影响竞争力。但这种改变可能比技术突破本身更需要时间,因为涉及到基础设施、法规、社会接受度等多个层面的配套改革。

本文根据2025618Stripe播客《Cheeky Pint》节目中Greg BrockmanJohn Collison的对话整理而成,并尽量保持了原始观点的完整性。

来源:至顶AI实验室

0赞

好文章,需要你的鼓励

2025

06/24

10:30

分享

点赞