在Google I/O 2025大会后不久,《纽约时报》科技播客《Hard Fork》的主持人Kevin Roose和Casey Newton深入Google总部,与DeepMind联合创始人兼CEO德米斯·哈萨比斯(Demis Hassabis)进行了一场深度对话。这场访谈发生在一个特殊的时间节点——哈萨比斯因在蛋白质结构预测方面的突破性工作荣获诺贝尔化学奖,而Google刚刚在I/O大会上展示了其最新的AI技术成果。
哈萨比斯作为人工智能领域的先驱人物,不仅是AlphaGo的主要开发者,更是将AI应用于科学研究的倡导者,不然他也不会作为一名AI专家拿了诺贝尔奖。在访谈中,他分享了对AGI(通用人工智能)发展时间表的最新判断,也详细解释了Google内部对AGI态度的根本性转变(这里有一个段子,Google以前内部一说起AGI,就会说是伦敦那帮疯子在搞的事情,因为DeepMind总部在伦敦,但是现在已经成了Google共识),并首次深入分析了Alpha Evolve这个有自我改进潜力的AI系统(也就是AI自己可以训练自己)。
我觉得哈萨比斯有两个观点比较独特,值得先拿出来强调。
一个是关于创新的。虽然大家都在谈消除AI幻觉,但是DeepMind的一个思路如何让AI"合理地幻觉"来产生创新想法,而且已经应用在Alpha Evolve上了。这种反直觉的思路可能是AI创造力的突破方向——不是简单地模仿现有内容,而是在有控制的情况下探索新可能性。
当然,但最触动我的还是他讲人文价值的一段话:"当我看到梵高或罗斯科的作品时,为什么它会触动你的灵魂,让你脊背发凉?因为我记得他们经历的事情,创造那幅作品时的挣扎,在梵高的每一笔中都有他的痛苦。"
想了想,我们可能看的不是作品,而是作者的人生啊。
一、Google I/O的AI盛宴
在刚刚结束的Google I/O 2025大会上,Gemini这个名字被提及了95次,这一数字本身就说明了AI在Google战略中的核心地位。所以哈萨比斯将这次大会描述为"Gemini秀",强调了几项对普通用户最有意义的发布。
Astra技术集成到Gemini Live被他视为最具革命性的进展。这项技术让用户第一次真正体验到AI已经能够执行远超预期的任务。哈萨比斯解释说:"当人们第一次使用它时,会感到非常神奇,他们意识到AI已经能够做到比他们想象中更多的事情。"这种技术演示的直观冲击力往往比理论介绍更能让人理解AI的真实能力。
同时备受关注的还有VEO3(Video Generation 3),这个视频生成模型正在互联网上疯传。VEO3代表了多模态AI的重大突破,它不仅能生成高质量的视频内容,更重要的是音频的加入让生成的视频具有了前所未有的真实感。哈萨比斯注意到,"音频为视频带来的差异比我想象的要大得多,它真的让视频活了过来。"
这些技术发布背后反映出Google在AI领域的全面布局,从对话式AI到多模态生成,从消费级应用到企业级解决方案。Google I/O 2025标志着AI技术从概念验证向大规模应用的关键转折点。
二、Google内部的"AGI觉醒"时刻
访谈中最引人注目的观察之一是Google内部对AGI态度的根本性转变。几年前,当研究人员提到AGI时,Google的其他部门往往会将其视为"DeepMind那帮伦敦人的疯狂想法",认为这与"真正的研究"相去甚远。
如今这种态度已经发生了180度的大转弯。Google高管们开始公开谈论AGI,整个公司都被"AGI洗脑"了。哈萨比斯用一个形象的比喻解释了这种变化的原因:"我有时会把Google DeepMind描述为Google的引擎室,我认为在大会主题演讲中大家已经看到了这一点。"
这种态度转变的根本原因在于,AI技术已经展现出接近人类水平通用智能的潜力,比几年前人们预想的要近得多。哈萨比斯指出:"很明显,我们离这种人类水平的通用智能相当接近,可能比人们几年前想的要近,它将产生广泛的跨领域影响。"
AI不再是一个垂直的技术解决方案,而是一个水平的技术层,将渗透到所有产品和服务中。在I/O大会的主题演讲中,AI"几乎无处不在,因为它是将支撑一切的水平层面"。这种无处不在的特性让Google的每个部门都开始理解AI的变革潜力。
更深层次的变化是,DeepMind的技术哲学开始影响整个Google。哈萨比斯欣慰地表示:"也许DeepMind的一些精神正在渗透到整个Google中,这很棒。"这种精神不仅包括对AGI的技术追求,更包括对AI安全和负责任发展的重视。
这种内部态度的转变反映了整个科技行业对AI发展阶段的重新认知。当AI从实验室走向实际应用并显示出巨大潜力时,怀疑论者也不得不承认这项技术的革命性意义。
三、产品化挑战:当技术进步超越产品周期
哈萨比斯也坦率地承认了AI领域面临的一个独特挑战:底层技术的发展速度远超产品开发周期。这种情况在科技历史上是罕见的,即使是互联网和移动互联网革命也会在某个阶段实现技术栈的相对稳定,从而让产品团队可以专注于利用现有技术创造用户价值。
"底层技术栈本身正在以令人难以置信的速度发展,这与其他重大革命性技术如互联网和移动技术非常不同,"哈萨比斯解释道。在传统的技术革命中,会有一个技术栈稳定的阶段,然后重点转向产品开发和商业化。但在AI领域,这种稳定期似乎还没有到来。
这种快速发展给产品团队带来了前所未有的挑战。哈萨比斯指出:"今天你该押注什么?当我们看到技术在一年内可能提升100%的时候。"产品经理和设计师需要预测一年后技术可能达到的能力水平,然后基于这种预测来设计产品。
这要求产品团队具备深厚的技术理解能力。哈萨比斯强调:"你需要相当深入的技术产品人员、产品设计师和经理,以便预测技术一年后可能发展到什么程度。"传统的产品开发模式在这种环境下显得力不从心。
举例来说,某些功能今天可能无法实现,但如果产品要在一年后发布,产品团队就需要判断届时这些功能是否会变得可行。"有些东西今天做不到,但你想设计一个一年后推出的产品,所以你需要对技术及其可能的发展方向有相当深入的了解,以确定你可以依赖哪些功能。"
这种情况解释了为什么会看到如此多的不同尝试,以及为什么一旦某些方向被证明可行,团队就会迅速加大投入。AI产品开发更像是在移动的平台上建造房屋,而不是在稳固的地基上施工。这种挑战同时存在于从Google这样的大公司到各种规模的初创企业中。
四、通用智能的双重使命:生产力工具与科学突破
在主题演讲中,哈萨比斯展示了Gemini在两个看似截然不同的领域中的应用:日常生产力助手和基础科学研究。这种广泛的适用性可能让观众感到困惑——同一个AI系统怎么能既帮助人们处理日常任务,又解决复杂的科学问题?
哈萨比斯的解释揭示了通用人工智能概念的核心理念。"这就是构建真正通用智能的想法,它应该适用于几乎任何事情。"无论是提升数十亿人的日常生产力,还是解决科学领域的重大挑战,真正的通用智能应该能够胜任令人难以置信的广泛任务。
这种通用性的实现主要依赖于底层的核心通用模型,在DeepMind的情况下就是Gemini,特别是Gemini 2.5。哈萨比斯估计,"90%的能力来自于底层的核心通用模型"。这个数字凸显了基础模型在整个AI能力体系中的核心地位。
但通用性并不意味着模型可以直接应用于所有领域而无需任何定制。在大多数专门应用中,仍然需要额外的应用研究或针对特定领域的微调。"你仍然需要额外的应用研究或来自领域的一些特殊情况,可能是特殊数据或其他东西来解决那个问题。"
更重要的是,这种应用过程创造了一个良性循环。当模型在某个专门领域取得突破时,这些学习可以反馈到通用模型中,使整个系统变得更强大。哈萨比斯描述这为"一种非常有趣的飞轮效应"。
对于哈萨比斯这样对多个领域都有浓厚兴趣的研究者来说,这种通用性特别有吸引力。"这对像我这样对很多事情都非常感兴趣的人来说非常有趣,你可以使用这项技术进入几乎任何你觉得有趣的领域。"这种能力让研究者可以运用同一套AI工具探索从游戏策略到药物发现的各种问题。
五、资源配置的平衡术:核心研究与产品应用
AI公司面临的一个关键挑战是如何在核心AI研究和产品商业化之间分配资源。这个问题在DeepMind内部尤其突出,因为许多工程师加入是为了构建AGI,但可能会被要求参与更加商业化的产品开发,比如让用户虚拟试穿衣服的购物功能。
哈萨比斯透露,在Google和DeepMind的规模下,这种冲突通过自然的自我选择得到了缓解。"这在内部是自我选择的。我们不必这样做,这是规模足够大的一个优势。"足够大的团队规模让不同兴趣的工程师可以找到合适的项目,无需强制转岗。
对于想要专注于核心研究的研究员,他们完全可以继续从事基础研究工作,"如果他们想留在核心研究中,完全可以,我们需要这样的人。"同时,产品团队有足够的工程师处理产品开发和产品工程工作。
出人意料的是,许多研究人员实际上被现实世界的影响所激励,无论是医学应用还是让数十亿人使用他们的研究成果。"实际上你会发现很多研究人员相当受现实世界影响的激励。"
这种激励不仅来自于科学突破的成就感,也来自于看到自己的工作被广泛应用的满足感。哈萨比斯指出:"让数十亿人使用他们的研究实际上是非常有激励性的。"医学应用如Isomorphic Labs的工作,以及让大规模用户群体受益的产品功能,都能为研究人员提供强烈的成就感。
这种模式让DeepMind避免了许多小公司面临的资源配置难题。"所以是的,我们不需要,没有必要让我们将人员转向某些特定的事情。"规模优势让组织可以同时推进多条技术路线,而不必在不同目标之间做出痛苦的取舍。
六、AGI时间表的微妙分歧:2030年前后的预测博弈
在Google I/O大会的一场公开讨论中,出现了一个有趣的场景:Google联合创始人谢尔盖·布林(Sergey Brin)和哈萨比斯在AGI到达时间上产生了微妙的分歧。布林认为AGI将在2030年之前到来,而哈萨比斯则预测在2030年之后。布林甚至"指控"哈萨比斯故意保守估计,以便能够"承诺不足,交付超额"。
哈萨比斯对这种分歧的解释揭示了AGI预测的复杂性。首先,他指出两人的时间表差异实际上并不大,"如果他说2030年刚刚之前,我说刚刚之后,我们的时间表其实没有太大差异。"
更重要的是,哈萨比斯的时间表具有惊人的一致性。"我的时间表从2010年DeepMind成立之初就相当一致。我们认为这大约是一个20年的任务,令人惊讶的是我们正在按计划进行。"这种长期一致性增强了预测的可信度,因为它不是基于短期炒作或市场压力的调整。
哈萨比斯承认他的预测带有概率分布的特征,"我在从现在起5到10年之间有一个概率分布,其中大部分质量集中在这个区间。"这种概率性思维反映了对未来不确定性的理性认知。
预测困难的一个重要原因是技术发展的不确定性。"预测未来5到10年的任何事情都非常困难,所以周围有不确定性。"同时,对于还需要多少突破性进展也存在不确定性,"还有关于需要多少更多突破的不确定性。"
AGI定义本身的模糊性也增加了预测的复杂性。哈萨比斯设定了一个相当高的标准:"我有一个相当高的标准,我一直有这个标准,它应该能够做人脑能做的所有事情,甚至在理论上也是如此。"
这个标准比"典型个体人类能做的事情"要高得多。虽然后者对经济具有重要意义,但在哈萨比斯看来,"这将是一个重大里程碑,但在我看来还不足以称之为AGI。"他要求的是超越平均人类能力,达到人类潜能上限的系统。
七、突破与渐进:通往AGI的双重路径
关于如何实现AGI,存在两种主要的技术路径:通过累积性的小幅改进逐步推进,或者通过重大技术突破实现跳跃式发展。访谈者提出了一个关键问题:AGI是会通过每次2-5%的渐进改进在长期内堆积而成,还是会通过某种技术突破引发"智能爆炸"?
哈萨比斯的回答展现了DeepMind策略的全面性:"我认为两者都可能,我认为两者肯定都会有用。"这种双重押注反映了对技术发展不确定性的理性应对。
在渐进改进方面,DeepMind在扩展(scaling)方面投入了巨大努力。哈萨比斯强调,虽然这些被称为"渐进式"改进,但实际上"即使在其中也有很多创新,以保持前进的动力,包括预训练、后训练、推理时计算等整个技术栈。"
他们展示了一些令人兴奋的研究成果,比如扩散模型和Deep Think模型。这些创新表明即使在"传统"技术栈中也存在大量创新空间。哈萨比斯指出:"我们在传统技术栈的所有部分都在创新。"
同时,DeepMind也在追求更具突破性的"底层"研究,例如Alpha Evolve项目。这些项目探索全新的技术方向,可能带来革命性的能力提升。"然后在此基础上,我们正在做更多的绿地工作,更多的蓝天工作,比如Alpha Evolve也许你可以包括在内。"
所谓绿地工作(Greenfield work)指的是在一片"空白土地"上开始全新项目,就像在郊外找一块还没开发过的绿地来建房子一样。在技术领域,这意味着研发团队不用迁就任何现有系统,可以完全按照最理想的设计来构建。比如说,如果你觉得现在的AI架构有根本性缺陷,那与其在旧系统上打补丁,不如推倒重来,用最新的理念设计一套全新的架构。这样做的好处是没有历史包袱,不会被过去的技术选择绑架,但风险是投入巨大且结果不确定。
而蓝天工作(Blue Sky work)则更像是仰望晴朗天空时的自由联想,代表那些不受任何现实约束的纯粹探索。这种研究通常不考虑短期的商业回报或技术可行性,研究者可以追随最大胆的想法,哪怕听起来像科幻小说。举个例子,当大家都在优化神经网络训练速度时,蓝天研究可能会问:"为什么一定要用神经网络?有没有完全不同的智能实现方式?"这类研究的特点是高风险高回报,大部分想法可能走不通,但偶尔一个突破就能改变整个领域的游戏规则。
这两种路径之间存在相互促进的关系。更好的基础模型为尝试新技术提供了更强的平台。"你的基础模型越好,你就可以在其上尝试更多的东西。"以Alpha Evolve为例,它将进化编程技术叠加在大语言模型之上。
哈萨比斯对DeepMind的研究能力充满信心:"我一直是基础研究的根本信徒。我认为我们拥有最广泛、最深入的研究团队。"这种研究广度让他们能够在需要新突破时有足够的技术储备。
DeepMind的历史成就为这种信心提供了支撑:"这让我们能够做出过去的重大突破,显然包括transformers,但还有AlphaGo、AlphaZero,所有这些东西,蒸馏技术。"如果需要另一个同等级别的重大突破,哈萨比斯相信他们有能力实现。
八、规模化争论:巨型模型vs专用系统的技术路线分化
AI领域正在经历一场关于技术发展方向的辩论。一方面是像Google这样推动大规模通用模型的公司,另一方面是主张构建更小、更专业化系统的声音。新闻记者Karen Howe最近出版了一本关于AI的书,她的观点代表了后一种立场:质疑是否需要那些极其耗能、耗费计算资源、需要数十亿美元和新数据中心的大型通用模型。
Howe的论点认为,可以构建更小的模型、更窄的模型,比如专门设计用于预测蛋白质3D结构的AlphaFold。"你不需要一个巨大的庞然大物模型来完成这项工作。"这种观点质疑大规模AI发展路径的必要性和可持续性。
哈萨比斯的回应展现了对技术发展更加细致的理解:"我认为你需要那些大模型。"但他同时强调,这不是一个非此即彼的选择,而是一个相互依存的技术生态系统。
关键的洞察是,大型模型和小型模型之间存在依存关系。"我们喜欢大型和小型模型,所以你需要大型模型来训练小型模型。"DeepMind的Flash模型系列就是这种关系的例证——它们被称为"工作马模型",高效实用,是最受欢迎的模型之一,在内部大量使用。
但这些高效的小型模型的能力来自于更大的"教师模型"的知识蒸馏。"你无法在没有从更大的教师模型中蒸馏的情况下构建那种类型的模型。"这种蒸馏过程让小型模型能够获得大型模型的部分能力,同时保持更高的效率。
即使是像AlphaFold这样的专业化系统,虽然哈萨比斯是"这些类型模型的巨大倡导者",也受益于通用技术的进步。专业化系统需要"采用通用技术,然后可能围绕蛋白质结构预测专门化它。"
哈萨比斯强调了专业化AI在科学和医学领域的巨大潜力:"我们不必等到AGI。我们现在就可以解决科学和医学中真正重要的问题。"DeepMind在AI for Science工作中"几乎每个月都在产出相当酷的东西"。
这种方法为创业公司提供了巨大机会。"很多初创公司可能可以通过将今天存在的某种通用模型与某种领域特异性相结合来构建。"专业化应用代表了一个重要的商业和技术机会层面。
但对于AGI的追求,哈萨比斯坚持认为需要多条路径并行推进。"如果你对AGI感兴趣,你必须推动等式的两边。在我看来这不是一个非此即彼的问题。我是一个'和'的支持者。"这种"和"的哲学包括:扩展、专业化技术、混合系统,以及可能带来下一个transformers级别突破的蓝天研究。
九、Alpha Evolve:AI自我改进的曙光
在访谈中,Alpha Evolve成为了最引人注目的话题之一,因为它代表了AI系统开始具备自我改进能力的早期迹象。这个系统的工作原理揭示了AI发展的一个全新维度。
Alpha Evolve的核心创新在于将多个AI模型组合成一个自主研究系统。哈萨比斯解释说:"在高层次上,它基本上是利用我们最新的Gemini模型,实际上是两个不同的模型,来生成关于程序和其他数学函数的想法、假设。"
这个系统的工作流程体现了AI研究的自动化雏形。首先,一个模型负责生成创意和假设,然后这些想法进入进化编程过程,通过算法筛选出最有前景的候选方案。"然后它们进入某种进化编程过程,以决定其中哪些最有前景,然后被移植到下一步。"
进化编程的概念为AI系统提供了探索新解决方案空间的能力。哈萨比斯用基因学类比解释:"它基本上是系统探索新空间的一种方式,就像在基因学中,你会变异什么来给你一种新的生物体。"在编程和数学环境中,系统会修改程序的某些方面,然后根据评估函数比较结果,将表现最好的候选保留到下一轮演化中。
Alpha Evolve采用了分工协作的架构设计。哈萨比斯描述:"我们让最高效的模型,某种Flash模型,生成可能性。然后我们让Pro模型对此进行批评,决定其中哪一个最有前景被选为下一轮进化。"
这种设计理念接近"自主AI研究组织"的概念,"某些AI提出假设,其他AI测试它们并监督它们。"目标是拥有一个能够随时间改进自身或建议现有问题改进的AI系统。
虽然Alpha Evolve仍处于早期阶段,但它已经在多个重要领域显示出价值。应用范围包括芯片设计、调度任务、数据中心AI任务的更高效执行,甚至是矩阵乘法这种训练算法最基本单元的证明优化。
系统目前仍受限于可验证正确性的领域。"它仍然受限于某种可证明正确的域,数学和编码显然是这样的,但我们需要将其完全泛化。"这种限制确保了系统的可靠性,但也限制了其应用范围。
Alpha Evolve的意义不仅在于技术能力,更在于它提供了超越训练数据统计中位数的路径。"但你所说的是我们现在有一种超越这一点的方法,可能产生在推进技术水平方面实际有用的新颖想法。"这种能力标志着AI从模仿向创新的重要转变。
十、幻觉与想象:创造力机制的双面性
Alpha Evolve项目中一个特别有趣的发现是关于AI"幻觉"的新理解。长期以来,AI研究者一直努力消除模型的幻觉倾向,但Alpha Evolve的研究显示,在特定情况下,幻觉实际上可能是创造力的重要来源。
哈萨比斯承认了这种看似矛盾的现象:"当你想要事实性的东西时,显然你不想要幻觉。但在创造性情况下,你可以将其视为有点像MBA课程中的横向思维,只是创造一些疯狂的想法。"
这种对幻觉的重新理解揭示了AI创造力的机制。大多数通过这种方式产生的想法确实没有意义,但偶尔的一两个可能会将系统带到搜索空间中实际上非常有价值的区域。"一旦你事后评估它,就会发现。"
哈萨比斯提出了一个重要的概念区分:"你可以在那时用想象力替换幻觉这个词,对吧?显然这是同一枚硬币的两面。"这种区分不仅仅是语义上的,它反映了对AI认知能力的更深层理解。
在有适当评估机制的情况下,"幻觉"可以成为探索新可能性的有效手段。关键在于有强大的后续评估能力来区分有价值的创新想法和无意义的产出。这种机制类似于人类创造过程中的发散思维阶段,Alpha Evolve就实现了这种创造性过程的自动化版本。
但这种创造性"幻觉"的应用也引发了一些安全方面的担忧。一位AI安全研究者对Alpha Evolve的发布方式表达了忧虑,不是因为技术本身,而是因为Google DeepMind先在内部使用该技术数月来优化系统,然后才向公众发布。
担忧的核心在于如果AI系统真的开始具备递归自我改进能力,这种"先内部使用,后公开"的模式可能意味着当Google DeepMind构建AGI甚至超级智能时,可能会保守这个秘密一段时间,而不是立即通知公众。
哈萨比斯对这种担忧的回应是,Alpha Evolve目前仍然是"非常初级的自我改进系统,仍然有人在回路中",并且"只是从已经存在的任务中削减了一些重要的百分点,虽然这很有价值,但它并没有创造任何形式的阶跃变化。"当前的系统更多是优化现有解决方案,而不是产生根本性突破。
十一、AI安全的实践演进:从理论到现实的学习曲线
AI安全讨论呈现出一个有趣的时间曲线现象:越往前追溯,当AI系统能力越弱时,人们似乎越多地谈论安全风险;而随着模型能力的显著提升,安全讨论反而变得相对较少。这种现象在Google I/O 2025大会上也有所体现。
哈萨比斯对此现象的解释展现了DeepMind对AI安全的一致性承诺:"我们和以往一样致力于安全。我们从DeepMind成立之初就为成功做规划。成功意味着某种程度上这正是我们想象会发生的事情。"
这种表面上的矛盾实际上反映了AI安全研究的成熟化过程。当AI系统还主要停留在实验室阶段时,安全讨论更多是理论性的。但当系统开始与现实世界接触后,实际的部署经验提供了更具体、更实用的安全见解。
哈萨比斯承认这种转变的价值:"我现在倾向于认为这整体上是一件有用的事情。"五年前或十年前,他可能认为AI系统最好留在研究实验室里,与学术界协作开发。"但实际上有很多东西你无法看到或理解,除非有数百万人尝试它。"
这种大规模真实世界测试提供了实验室环境无法复制的洞察。无论内部测试团队多么庞大,"也只会是100人或1000人之类的,所以它无法与数千万人使用你的系统相比。"规模化部署暴露了在受控环境中无法发现的边缘情况和使用模式。
但这种方法也带来了风险权衡的挑战。"另一方面,你希望提前尽可能多地了解,这样你就可以在风险发生之前减轻风险。"这需要在学习效益和潜在风险之间找到平衡。
哈萨比斯认为过去几年的经验证明了这种渐进式方法的价值:"我认为过去两三年行业中发生的事情很棒,因为我们一直在学习,当时系统并不那么强大或有风险。"在相对安全的能力水平下积累部署经验,为未来更强大系统的安全部署奠定了基础。
但他也警告,随着系统能力的提升,安全挑战将变得更加严峻。"我认为当这些智能体系统开始变得真正有能力时,事情将在两三年后变得非常严肃。我们只是看到了智能体时代的开始。"
即将到来的智能体时代需要安全研究的重大进步。"我认为我们确实需要在分析和理解、可控性方面的研究取得阶跃变化。"这不仅是技术挑战,更是国际协作挑战,因为AI技术的影响是全球性的。
十二、国际合作的必要性与地缘政治的复杂现实
AI安全的另一个关键维度是国际协作的必要性。哈萨比斯强调:"另一个关键事情是它必须是国际性的。这相当困难,我在这方面一直很一致,因为这是一项将影响世界上每个人的技术。"
这种国际性要求的背景是,AI技术正在不同国家的不同公司中并行发展,单一国家或公司的安全措施无法确保全球安全。"它正在由不同国家的不同公司构建,所以你必须在我们希望将这些系统用于什么方面获得某种国际规范。"
当前的挑战包括建立国际共识的测试基准。"我们应该就安全性和可靠性测试的基准类型达成一致。但现在有大量工作要做,我们没有这些基准。"建立这些标准需要业界、学术界和政府的协调努力。
然而,地缘政治现实使这种协作变得复杂。当讨论到出口管制问题时,哈萨比斯承认:"出口管制是一个非常复杂的问题,显然今天的地缘政治极其复杂。"
关于是否允许不同地区拥有前沿模型训练能力,存在合理的分歧。"不受控制地扩散这些技术,你是否希望不同的地方拥有前沿模型训练能力?我不确定这是一个好主意。"这反映了对技术扩散风险的担忧。
但同时,也存在相反的考虑:"另一方面,你希望我们的技术成为世界各地采用的技术。"这种情绪反映了技术领导力和全球影响力之间的复杂关系。
哈萨比斯坦率地承认没有简单的答案:"这是一个复杂的权衡。如果有一个简单的答案,我想我们都会,你知道,我会从屋顶上大喊,但我认为它像大多数现实世界的问题一样是有细微差别的。"
关于AI是否正在导致与中国的双极冲突,哈萨比斯表达了希望避免这种结果的愿望。"我希望不会。但我认为短期内,我觉得AI被卷入了正在发生的更大的地缘政治转变中。"AI成为了更广泛地缘政治竞争的一个组成部分,而不是冲突的根本原因。
但他对长期前景保持乐观:"我希望随着人们意识到这些技术变得越来越强大,世界将意识到我们都在一起。因为我们确实如此。"AGI的发展可能最终促使各国认识到合作的必要性,因为其影响是全球性的。
十三、教育变革:AI原生代的技能重构
当谈到AI对下一代教育的影响时,哈萨比斯提供了既实用又前瞻性的建议。作为有经验的父亲,他经常被问及孩子们应该学习什么、是否还需要上大学等问题。
他的建议首先强调基础技能的持续重要性:"我不会极大地改变STEM的一些基本建议。掌握甚至像编程这样的东西,我仍然会推荐,因为我认为无论AI工具发生什么,如果你了解它们如何工作和运行以及可以用它们做什么,你会过得更好。"
这种观点反映了对AI作为工具而非替代品的理解。即使AI能够生成代码,理解编程原理的人仍然能够更好地利用这些工具。了解底层技术原理让人能够更有效地与AI协作,而不是被AI替代。
哈萨比斯特别强调了成为AI工具"忍者"的重要性:"我也会说现在就沉浸其中。如果我今天是一个青少年,我会努力成为使用最新工具的某种忍者。"这种技能可能让年轻人在某些方面获得超人类的能力。
但技术技能只是一个方面。更重要的是培养元技能:"然后我认为教授真正的元技能,比如学会学习。"在快速变化的技术环境中,学习能力比任何特定知识都更重要。
适应性和韧性成为核心竞争力。"我们唯一确定的是未来10年会有很多变化,对吧?那么一个人如何为此做好准备?什么样的技能对此有用?创造力技能、适应性、韧性?"
哈萨比斯相信年轻人具有天然的适应优势。"我认为这将非常有趣,看看他们会做什么,因为他们将成长为AI原生,就像上一代成长为移动和iPad原生,之前成长为互联网和计算机原生,那是我的时代。"
每一代人都会找到利用最新技术的创新方式。"他们总是似乎适应并利用最新、最酷的工具。"这种适应能力可能比任何特定的技术技能都更有价值。
哈萨比斯也看到了AI在教育公平方面的巨大潜力。"我对将其大规模引入教育非常兴奋。而且如果你有一个AI导师,将其带到世界上没有良好教育系统的贫困地区。"AI有可能民主化高质量教育,让全球更多人获得个性化学习支持。
但实现这种潜力需要谨慎的设计。"我们可以在AI方面做更多工作,让工具真正适合那种用途,并且可证明是好的。"确保AI教育工具的有效性和安全性是实现教育变革的前提。
十四、数字伴侣的边界:助手与依赖的微妙平衡
AI伴侣和数字助手的发展引发了重要的社会和心理问题。虽然Google DeepMind目前还没有开发专门的伴侣产品,但这个市场正在快速发展,其中一些产品已经显示出令人担忧的特征。
哈萨比斯对当前市场上一些AI伴侣产品表达了担忧:"一些我到目前为止看到的似乎相当令人担忧。创造一个聊天机器人似乎很容易,它除了告诉你你有多棒之外什么都不做,这可能导致一些黑暗和奇怪的地方。"简单的奉承和无条件认同可能对用户的心理健康产生负面影响。
相比之下,DeepMind的方法更侧重于实用性和增强人类能力。"我对此的看法更多是通过我们昨天谈到的通用助手的镜头,这是为你的日常生产力提供令人难以置信的有用的东西。"
理想的AI助手应该消除无聊和繁琐的任务,为人们释放时间去做真正喜欢的事情。"摆脱我们都讨厌做的无聊琐碎任务,给你更多时间做你喜欢做的事情。"这种愿景将AI定位为人类能力的扩展器,而不是社交关系的替代品。
哈萨比斯还设想了AI助手在信息筛选方面的积极作用。"我也真心希望它们通过给你令人难以置信的推荐来丰富你的生活,比如各种你没有意识到会喜欢的惊人事物,用令人惊讶的事物取悦你。"
更有意思的是,AI助手可能成为保护用户注意力的工具,而不是争夺注意力的另一个来源。"如果这个助手变得真正有用并且很了解你,你可以用自然语言与它一起编程,显然是为了保护你的注意力。"
这种注意力保护机制可能让AI助手与当前的社交媒体算法形成鲜明对比。"你几乎可以将其视为为你工作的系统,你知道,作为个人,它是你的。它保护你的注意力免受其他试图获得你注意力的算法的攻击。"
当前社交媒体的问题在于用户必须用同一个大脑处理信息洪流和提取有用信息。"你必须用你的一个大脑,让我们说,无论什么社交媒体流,你必须浸入那个洪流中,然后得到你想要的信息片段,但你用同一个大脑做这件事。"
AI助手可以充当过滤器,让用户只接收真正有价值的信息。"但如果数字助手为你做了这件事,你知道,你只会得到有用的小块,你不需要打破你的心情或你一天在做什么或你与家人的专注力。"这种设计可能从根本上改善人们与信息技术的关系。
十五、就业冲击的现实检验:增强还是替代?
关于AI对就业市场的影响,已经开始出现一些令人担忧的信号。一些年轻人正在重新考虑他们的职业选择,避开传统上被认为是稳定的技术、咨询、金融和法律领域,因为担心这些工作可能不会长期存在。
哈萨比斯承认他还没有看到关于这种趋势的确凿数据:"我还没有看到相关研究,但也许现在开始出现。我不认为还有任何确切的数字。至少我没有看到。"但他认为目前大多数AI系统仍然主要起到增强作用,而不是替代作用。
从中期角度看,哈萨比斯预测会出现类似历史上其他重大技术变革的模式:"我认为在接下来的五到十年中,我们会发现通常在重大新技术转变中发生的事情,即一些工作受到干扰,但然后新的、你知道,更有价值的,通常更有趣的工作被创造出来。"
但他也坦率地承认长期前景的不确定性:"我认为这就是在不久的将来会发生的事情。对于今天的毕业生来说,比如说在接下来的五年中,我认为很难预测之后的情况。"AGI的到来可能改变就业市场的基本规则。
这种不确定性是更广泛社会变革的一部分,需要提前准备。"那是我们需要为之做好准备的更多社会变革的一部分。"
当讨论一个具体例子——数据科学团队从75人减少到1人时,哈萨比斯的回应展现了对技术影响的复杂理解。他认为AI工具将释放更多的创业和创新机会:"我认为这些工具将释放创造事物的能力,速度比以前快得多。所以我认为会有更多人做初创企业。"
AI工具降低了创业门槛,使得更多的想法变得可行。"有更多的表面积可以攻击和尝试这些工具,这在以前是不可能的。"这可能导致更多小团队的出现,而不是大型团队的集中化。
编程领域展现了这种变化的典型模式。最优秀的程序员从AI工具中获得了差异化价值,因为他们仍然知道如何提出正确的问题、架构整个代码库和检查代码的正确性。同时,在业余爱好者层面,AI工具让非技术人员能够创建原型、游戏、网站或电影创意。
这种变化可能改变技能重要性的排序。"然后回到教育问题,哪些技能现在变得重要,可能是不同的技能,比如创造力、某种愿景和设计敏感性可能变得越来越重要。"创造性和概念性技能可能变得比纯粹的执行技能更有价值。
当被问及DeepMind是否会在明年雇佣同样多的工程师时,哈萨比斯的回答是肯定的:"我认为是的。没有计划雇佣更少的人。"但他也承认这取决于编程智能体的发展速度,"今天它们不能自己做事。它们需要——它们只是对最好的人类程序员有帮助。"
十六、人文价值的永恒性:艺术、创造与人类连接
随着AI在越来越多领域展现出卓越能力,一个根本性问题浮现:什么使人类创造的作品独特且不可替代?哈萨比斯通过自己的早期经历提供了深刻的洞察。
回顾与国际象棋的关系,哈萨比斯分享了一个重要的类比。作为年轻时的职业棋手,他曾代表英格兰青年队参赛,国际象棋几乎成为他的第一职业选择。然后Deep Blue出现了,"显然,计算机将永远比世界冠军强大得多。"
但这种技术超越并没有消除人们对国际象棋的兴趣。"但是的,我仍然喜欢下棋。人们仍然会下棋。它是不同的,但这有点像我们可以庆祝尤塞恩·博尔特以令人难以置信的速度跑100米,但我们有汽车,但我们不在乎,对吧?"
这个类比揭示了一个重要原理:人们感兴趣的是其他人类的成就。技术能力的超越并不会削弱人类成就的价值,因为我们欣赏的是人类克服限制、发挥潜能的过程。
在创作领域,这种原理同样适用。哈萨比斯以小说为例:"即使AI有一天可能写出技术上不错的小说,但我认为如果你知道它是由AI写的,它不会与读者有同样的灵魂或连接,至少据我目前所见。"
人类创作的价值不仅在于最终作品,更在于创作过程中蕴含的人类经验和情感。这一点在视觉艺术中体现得尤其明显。
DeepMind在VEO3等生成工具的开发中深刻认识到这一点,因此与顶级艺术家如达伦·阿罗诺夫斯基(Darren Aronofsky)和音乐家Shankar合作。"我完全同意。我认为这些是工具,它们可以产生技术上好的东西。"
哈萨比斯用梵高的例子说明了人类艺术的独特价值:"当我看到梵高或罗斯科(下图)的作品时,为什么它会触动你的灵魂,让你脊背发凉?因为我记住了他们经历的事情,创造那幅作品的挣扎,在梵高的每一笔中都有他的痛苦。"
艺术作品的力量来自于创作者的人生经历和情感投入,这种"痛苦"和"斗争"赋予了作品无法复制的深度。"即使AI模仿了这一点,如果你被告知这是AI创作的,那意味着什么?"
这种理解指导了DeepMind在创意AI工具开发中的哲学:"这就是为什么我们制作所有工具,VEO等,都与顶级创意艺术家合作。"AI工具被定位为增强人类创造力的手段,而不是替代人类创作者。
即使VEO3能够生成技术上令人印象深刻的视频内容,如达伦·阿罗诺夫斯基所说,它缺乏深层的叙事能力,"它没有深层叙事,像大师级电影制作人或大师级小说家在游戏顶端所做的那样。"
这种限制可能是永久性的。"它可能永远不会做到,它总是会感觉缺少什么。是作品的某种灵魂,你知道,真正的人性,伟大艺术作品的魔力。"真正伟大的艺术作品具有一种无法被算法复制的"魔力"。
十七、宗教思辨的复归:技术进步中的精神追求
在讨论AI对社会的深远影响时,一个意想不到的话题浮现:宗教和精神思考在AGI时代的作用。据报道,新任教皇对AGI表现出了兴趣,这引发了关于技术进步是否会带来宗教复兴或精神追求复归的讨论。
哈萨比斯分享了他与梵蒂冈的互动经历,揭示了宗教机构对AI技术的早期关注。"我确实与上一任教皇就此事进行了交谈,梵蒂冈一直很感兴趣。甚至在这位教皇之前,还没有与他交谈过,但就这些问题。"
梵蒂冈对AI和宗教、技术的交互早有思考,这种兴趣可以追溯到十多年前。哈萨比斯发现天主教会的一个独特特征:"天主教会有趣的是,作为一个宗教团体,他们总是有一个科学分支,这很奇怪,他们喜欢说伽利略是创始人。"
作为罗马教皇科学院成员,哈萨比斯强调这个机构的独特性质:"这很有趣,像史蒂芬·霍金这样的人和无神论者都是学院的一部分。这部分是我同意加入的原因,因为它是一个完全科学的机构。"这种科学与宗教的分离让不同信仰背景的学者能够在科学框架内协作。
梵蒂冈对AI的兴趣不是突然产生的,而是长期关注的结果。"有趣的是,我很着迷,他们对此感兴趣已经10多年了。所以他们在这方面很早,就像从哲学角度来看这项技术将有多有趣。"
哈萨比斯认为这种哲学和神学视角对AI发展具有重要价值。"我实际上认为我们需要更多来自哲学家的这种思考和工作,实际上神学家也会非常非常好。"这种跨学科的对话可能为AI发展提供重要的伦理和哲学指导。
他对新教皇的潜在兴趣表示欢迎:"所以我希望新教皇真的感兴趣。"这种兴趣可能预示着宗教机构在AI治理和伦理框架制定中发挥更积极的作用。
当被问及是否认为AGI时代会出现宗教复兴时,哈萨比斯给出了开放性的回答:"这可能是这种情况。"当技术迫使人们重新思考生命意义和人类价值时,精神追求可能会变得更加重要。
这种可能性反映了人类面对重大技术变革时的根本需求:在快速变化的世界中寻找稳定的价值锚点和意义来源。宗教和哲学传统可能为人们在AI时代保持人性和目标感提供重要资源。
十八、后AGI社会的生存哲学:最坏的时代与最好的选择
访谈接近尾声时,主持人提出了一个发人深省的问题,这个问题来自经济学家泰勒·考恩(Tyler Cowen)对Anthropic的杰克·克拉克的提问:"在正在进行的AI革命中,哪个年龄段的人境遇最糟糕?"
这个问题触及了一个深层的社会焦虑:不同年龄段的人将如何面对AI带来的巨大变革。年轻人担心传统职业道路的消失,中年人忧虑现有技能的过时,老年人则可能感到被时代抛弃。
哈萨比斯的回答展现了基于技术乐观主义的生命哲学:"我认为任何能够活着看到它的年龄都是好年龄,因为我认为我们将在医学等方面取得一些重大进展。"
这种观点将AGI时代重新框定为人类历史上的一个独特机遇期。虽然变化带来不确定性和挑战,但能够亲身经历这种历史性转变本身就是一种特权。哈萨比斯相信AI在医学领域的突破将显著延长和改善人类生活。
但他也坦率承认未来的不可预测性:"我们都不知道它将如何准确地发生。很难说,但发现将非常有趣。"这种承认体现了对未来既期待又敬畏的态度。
当主持人半开玩笑地建议"尽量年轻一些"时,哈萨比斯回应:"年轻总是更好的。是的,我是说,一般来说,年轻总是更好。这很明显。"这种轻松的回应掩盖了一个深刻的观点:在快速变化的时代,适应能力和学习能力确实可能比经验积累更重要。
年轻人具有的适应性、学习速度和对新技术的天然亲和力,可能让他们在AI时代具有独特优势。但这也并不意味着其他年龄段的人没有价值——经验、判断力和智慧在任何时代都是宝贵的资产。反正正反话都给说了……
而最终,哈萨比斯的回答传达的信息是:与其担心处于"错误"的年龄段,不如专注于如何充分利用AI技术带来的机遇。我理解哈萨比斯这种生存哲学的意思是:不是消极的接受,而是积极的参与。因为在历史的转折点上,每个人都有机会成为变革的参与者,而不仅仅是被动的观察者。
好文章,需要你的鼓励
这项研究提出了R1-Searcher++框架,通过两阶段训练策略使大语言模型能像人类一样灵活利用内部知识和外部信息。该方法创新性地采用强化学习激励模型优先使用内部知识,并引入记忆机制将检索到的信息转化为内部知识,实现动态知识获取。实验表明,R1-Searcher++不仅在多步问答任务上表现优异,还大幅减少了检索次数,显著提高了推理效率。
这项研究提出了AutoRefine,一种革新性的强化学习框架,为大语言模型引入了"边思考边搜索和完善"的全新范式。与传统方法不同,AutoRefine在连续搜索调用之间添加知识完善步骤,让模型能够有效过滤和组织信息。通过结合答案正确性和检索质量双重奖励,该方法在七项问答基准测试中平均提升6.9%的准确率,特别在复杂多跳推理场景中表现突出,解决了现有检索增强推理的核心局限性。
这项研究揭示了一种新型网络安全威胁:利用普通网络广告攻击AI网页代理。中科院研究团队开发的AdInject攻击无需特殊权限,仅通过精心设计的广告内容就能误导AI代理点击恶意链接,成功率高达90%以上。研究使用严格的黑盒模型,更符合现实场景,暴露了当前AI代理面临的实际安全漏洞。实验还表明,即使添加专门的防御提示,这类攻击仍能成功率超过50%,凸显了设计更强大防御机制的紧迫性。
东北大学与快手科技联合研发的UNITE系统为多模态信息检索带来突破性进展。这项发表于2025年5月的研究首次系统分析了模态特定数据如何影响检索性能,并提出创新的模态感知掩码对比学习技术,有效解决不同模态间的竞争关系。UNITE能同时处理文本、图像、视频及其组合,在40多项测试中超越现有方法,即使与参数规模更大的模型相比也表现出色。研究发现视频-文本对在通用检索中表现优异,而文本-文本和文本-图像对对指令遵循任务至关重要,为未来多模态系统研究提供了宝贵指南。