2025年12月17日,Google DeepMind播客发布了本季收官之作。数学家Hannah Fry与公司联合创始人兼CEO Demis Hassabis进行了年度深度对话。这期节目不谈产品发布,聚焦更根本的问题:AGI还有多远?当前模型的真正短板是什么?AI泡沫是否存在?以及一个贯穿Hassabis职业生涯的哲学追问——图灵机能够计算宇宙中的一切吗?

过去14个月对Hassabis来说意义非凡。2024年10月,他因AlphaFold获得诺贝尔化学奖,成为历史上罕见的以企业家身份获此殊荣的人。一个月前,Gemini 3发布,在推理、工具调用、多模态等多个基准测试中登顶。Gemini应用的月活用户已超过6.5亿,通过Search AI Overviews使用Gemini的用户每月超过20亿。近期,DeepMind又宣布与英国政府签署重大合作协议,将在2026年开设首个AI驱动的自动化材料研究实验室。但在这场对话中,这位49岁的AI领袖展现的是另一面——对当前系统局限性的清醒认知,对AGI路径的深度思考,以及对一个自少年时代就萦绕心头的问题的执着追问。
"感觉我们把十年的事压缩进了一年里。"Hassabis这样形容过去12个月。但他随即话锋一转,指向了那些尚未解决的根本问题。
1. "它们在某些维度上达到博士水平,在其他维度上连高中都不到"
当前AI系统最大的问题是什么?Hassabis给出了一个精准的诊断:锯齿状智能(jagged intelligence)。
同一个模型,能在国际数学奥林匹克竞赛中拿金牌,却在简单的逻辑问题上犯低级错误;能写出博士级别的论文,却数不清一个单词里有几个字母;能解决前沿数学难题,却下不好一盘像样的国际象棋。
"它们在某些维度上表现惊人,甚至达到博士水平,但在其他维度上连高中水平都不到。这种不均匀是我们现在没有AGI的关键原因之一。"
造成这种现象的原因是多方面的。有时候是tokenization(分词)的问题——当你问模型一个单词里有几个字母时,它可能根本"看不到"每个独立的字母,因为它处理的是token而不是字符。有时候是推理链条断裂,系统在复杂问题上无法保持一致的逻辑线索。
Hassabis认为,一个真正的AGI系统必须是一致的。不能在某些领域超人,在另一些领域低于常人。这种一致性,恰恰是当前系统最缺乏的。
幻觉问题是另一个核心短板。Hassabis把它归结为一个更深层的问题:模型不知道自己不知道什么。
"大部分幻觉的本质是'强行回答'——系统被训练成总要给出答案,而不是承认不确定性。"
他打了一个生动的比方:"现在的系统有点像一个人在糟糕的一天里,脱口而出脑子里冒出的第一个想法。大多数时候没问题,但遇到真正困难的问题时,你需要停下来,重新检查你准备说的话,然后调整。"
解决方案的方向很明确:让模型学会内省(introspection)。AlphaFold能输出置信度分数,告诉你哪些预测可靠、哪些不确定。大语言模型需要类似的机制。
"更好的模型知道更多关于它们知道什么的信息,如果这么说有意义的话。"Hassabis说。随着模型能力提升,它们对自身知识边界的感知也在变得更可靠。下一步是训练系统在输出时能够反映这种不确定性,而不是强行给出一个看似自信的答案。
当前的"思考型"模型(thinking systems)是朝这个方向迈出的一步——它们在推理时花更多时间,效果确实更好。但Hassabis认为这只走了一半路。
"系统还不能持续地、有目的地利用这些思考时间来验证输出、调用工具做交叉检验。我们可能只完成了50%。"
2. 从AlphaGo到AlphaZero:AGI的技术路径会重演吗?
Fry问了一个尖锐的问题:AlphaGo到AlphaZero的跃迁,那种"抛弃人类知识反而更强"的模式,会在科学和数学领域重演吗?
Hassabis的回答很有层次。
"我认为我们现在构建的更像AlphaGo。"他说。当前的大语言模型从人类知识出发,学习互联网上的所有信息,把它压缩成一个可以泛化的artifact(制品)。这是一个有价值的起点,但远非终点。
下一步是让系统学会用AlphaGo那样的搜索和规划能力来引导推理。AlphaGo不只是有一个好的直觉网络,它还有蒙特卡洛树搜索(MCTS)来探索和验证。当前的大语言模型有了直觉,但搜索和规划的能力还很原始。
"我目前不觉得我们受限于人类知识的总量——互联网上的东西。主要问题是我们还不知道如何像AlphaGo那样可靠地使用这些系统来做有用的推理轨迹、有用的规划想法。"
再下一步,也是更难的一步,是AlphaZero模式——系统开始自己发现知识,而不是依赖人类数据。
"一旦你有了AlphaGo,就可以像我们在Alpha系列中做的那样,退回去做一个AlphaZero,让它从零开始为自己发现知识。我认为那会是下一步。"
但Hassabis承认,这显然更难。他的建议是分步走:先用AlphaGo式的方法建立一个可靠的系统,然后再考虑AlphaZero式的自主知识发现。
还有一个关键能力是当前系统完全缺失的:在线学习(online learning)。
"我们训练这些系统,调优它们,然后发布出去。但它们不会在真实世界中继续学习,不像我们人类那样。这是通往AGI的另一个关键缺失。"
3. "Scaling没有撞墙,但收益在递减"
去年这个时候,关于"scaling laws失效"的讨论甚嚣尘上。数据要用完了,算力回报在下降,进步会停滞。但Gemini 3的发布似乎打脸了这些预言。
Hassabis对这个问题的回答很精准:
"很多人有这种想法,尤其是其他一些公司的进展变慢了。但我们从来没有真正看到什么墙。我要说的是,可能存在收益递减——但当我这么说时,人们就觉得'哦,那就是没有回报了',好像是零或一的关系,要么指数增长,要么完全停滞。不是的。这两种状态之间有很大的空间,我认为我们就在那个中间地带。"
他解释说,你不会每次发布新版本都把所有基准测试的性能翻倍。三四年前的早期可能是那样,但现在的改进是"显著的、值得投资的",只是不再是指数级的。
数据瓶颈确实存在,但有绕过的方法。合成数据是一个方向。在可验证领域——编程、数学——系统可以自己生成训练数据,因为你可以自动验证答案是否正确。理论上,这些领域可以产生无限的训练数据。
"所有这些都是研究问题,"Hassabis说,"而这正是我们一直拥有的优势。我们始终是研究优先的,我认为我们拥有最广泛、最深厚的研究实力,一直如此。"
他把DeepMind的策略描述为"50%投入scaling,50%投入创新"。
"我的赌注是,你需要两者才能到达AGI。"
回顾过去十年的重大突破——Transformer、AlphaGo、AlphaZero、AlphaFold——它们都出自Google或DeepMind。Hassabis说,如果未来需要更多科学创新才能继续前进,"我会押注我们是做这件事的地方"。
"我其实很喜欢地形变得更困难的时候。因为那时候你不只需要世界级的工程——那本身已经够难了——你还必须把它和世界级的研究与科学结合起来。而那正是我们的专长。"
4. 世界模型:被低估的AGI拼图
如果说大语言模型是DeepMind的"显学",世界模型(world models)则是Hassabis个人投入最深的"心头好"。
"这可能是我持续时间最长的热情,"他说,"世界模型和模拟,加上AI。现在它们终于在我们最新的工作中汇合了,比如Genie。"
语言模型能理解的世界比预期多。语言可能比语言学家想象的更丰富,包含更多关于世界的信息。但仍有大量知识无法用语言描述:
"很多东西你没法用文字描述,你必须去体验它。"
这类知识对机器人、通用助手、甚至科学研究都至关重要。如果你想要一个能在日常生活中陪伴你的universal assistant(通用助手),不只是在电脑上,而是通过眼镜或手机帮助你处理真实世界的事务,你就需要这种世界理解能力。
DeepMind的思路是:如果系统能生成逼真的世界,就证明它在某种程度上"理解"了世界的运作规律。
"你怎么测试你有这种理解?嗯,你能生成逼真的世界吗?因为如果你能生成它,那在某种意义上你必须已经理解了——系统必须已经封装了很多世界的机制。"
Genie是可交互的世界模型,用户(或AI agent)可以在其中行动,世界会实时生成响应。Veo是视频生成模型。它们已经能很好地处理反射、液体流动等复杂物理现象——至少在人眼看来是这样。
"当你看Veo处理反射和液体的方式,已经相当令人难以置信地准确了,至少对肉眼而言。"
但"看起来对"和"物理学上正确"是两回事。下一步是让精度达到真正的实验级别。DeepMind正在用游戏引擎生成"物理基准测试"——简单的物理实验场景(球体沿不同轨道滚动、钟摆运动),测试模型是否真正掌握牛顿三定律,而不只是输出一个视觉上合理的近似。
"目前它们是近似,肉眼看着真实。但要用于机器人训练,精度还不够。"
他提到,一旦涉及三体问题这类本身就不可精确求解的系统,事情会变得更有趣。"但快速变得复杂的是,比如三体问题,那本来就是不可解的。所以我认为这会很有意思。"
5. SIMA+Genie:两个AI在彼此的心智中互动
最有趣的实验是把SIMA(能在游戏中执行任务的agent)放进Genie生成的世界里——一个AI在另一个AI创造的世界中学习和探索。
SIMA 2刚刚发布。它是一个模拟agent(Simulated Agents),可以被放进虚拟世界中,从商业游戏(如开放世界太空游戏No Man's Sky)到AI生成的环境都可以。因为底层是Gemini,你可以直接用自然语言给它下指令。
"然后我们想,如果把Genie接入SIMA,把SIMA agent放进另一个正在实时创造世界的AI里,会怎样?现在两个AI在彼此的心智中互动。"
从SIMA的角度,它在尝试导航和完成任务;从Genie的角度,那只是一个玩家和一个avatar,它不关心那是不是另一个AI,只是根据agent的行为生成周围的世界。
"看到它们一起互动真的很神奇。我认为这可能是一个有趣训练循环的开始——你几乎有了无限的训练样本,因为无论SIMA agent想学什么,Genie都可以实时创造出来。"
想象一下:自动设置和解决任务,数百万个任务,难度不断递增——这一切都不需要人类标注。
这项研究还有直接的应用前景:SIMA agents可以成为游戏中的AI伙伴,告别无聊的NPC;它们学到的技能也可能迁移到机器人领域。
"当然,我最想做的事情之一,"Hassabis笑着说,"是把这些应用回游戏,创造终极游戏体验。也许这一直是我潜意识里的计划。"
6. 在模拟中重跑进化:意识会涌现吗?
Fry提起了第一次采访时Hassabis说过的话:他喜欢一种理论,认为意识是进化的产物——在进化的某个阶段,理解另一个个体内部状态的能力带来了生存优势,然后我们把这种能力转向了自己,于是有了自我意识。
"这让你想在模拟中运行进化实验吗?"
"当然想。"Hassabis说,"我很想在某个时候做这个实验——重跑进化,重跑社会动态。"
他提到圣塔菲研究所(Santa Fe Institute)曾经做过的那些小网格世界实验。大多是经济学家在做,他们想模拟人工社会。结果发现,如果让agents在合适的激励结构下运行足够长时间,各种有趣的东西会自发涌现——市场、银行,各种疯狂的制度安排。
"我认为这对理解生命的起源和意识的起源会非常有价值。这也是我从一开始就对AI感兴趣的核心原因之一——我认为你需要这类工具才能真正理解我们从哪里来、这些现象是什么。"
模拟的力量在于可以做统计。你可以跑上百万次,每次稍微调整初始条件,然后分析差异。"这是一种非常受控的实验方式,而对于真正有趣的问题,在现实世界中几乎不可能这样做。"
但Fry追问:考虑到我们已经看到这些模型出现了意料之外的涌现特性,比如我们没有预期的概念理解能力,运行这类模拟是不是也需要相当谨慎?
Hassabis承认需要小心,但他认为模拟的好处恰恰在于可控性。
"你可以在相当安全的沙盒里运行它们。也许最终需要air-gap(物理隔离)。你可以24/7监控模拟中发生的事情,而且你能访问所有数据。"
他预见到,我们可能需要用AI工具来帮助监控这些模拟,因为复杂度太高——想象成千上万的AI在一个模拟中跑来跑去,人类科学家不可能跟上。"但我们可能可以用其他AI系统来帮助我们分析,自动标记任何有趣或令人担忧的东西。"
7. 根节点问题:室温超导体、核聚变与量子计算
AlphaFold是Hassabis"根节点问题"(root node problems)概念的概念验证。根节点问题的特点是:一旦解决,会解锁大量下游研究和应用。蛋白质折叠就是这样——它困扰了科学界50年,而一旦解决,药物发现、疾病理解、酶设计都会加速。
"疯狂的是,我们快到AlphaFold五周年了,至少是AlphaFold 2被公布的五周年。那是证明点,证明用AI解决这类根节点问题是可能的。"
下一个目标是什么?
材料科学是重点。Hassabis明确提到他想做的事:室温超导体、更好的电池。
"我很想做一个室温超导体。还有更好的电池,这类东西。我认为那在计划之中。"
DeepMind近期宣布与英国政府的深度合作,将在2026年开设其第一个自动化研究实验室,专注于发现先进材料,包括超导体。实验室将整合Gemini AI模型和机器人技术,每天可以合成和表征数百种材料。
核聚变方面,DeepMind与Commonwealth Fusion签署了深度合作协议。Commonwealth Fusion被认为是在传统托卡马克反应堆方向上最接近实现商业化的初创公司。DeepMind将帮助他们控制等离子体在磁约束中的行为,可能还涉及材料设计。
"如果我们能拥有模块化的聚变反应堆,你知道,那个几乎无限的可再生清洁能源的承诺,会转变一切。那是圣杯。"
Hassabis描绘了一个能源近乎免费的未来:海水淡化可以遍地开花,解决水资源问题;甚至可以用海水制造火箭燃料——海水里有氢和氧,那基本上就是火箭燃料,只是分离它们需要大量能源。如果能源便宜、清洁、可再生,为什么不24/7地生产呢?
"当然,这也是我们可以帮助应对气候问题的方式之一。"
量子计算是另一个有趣的协作方向。DeepMind正在用机器学习帮助Google的量子团队做纠错码(error correction codes)优化。
"然后也许有一天他们会帮助我们。"Hassabis说,暗示量子计算未来可能反过来加速AI研究。
8. AI泡沫:存在,但分领域看
"去年这个时候你说AI在短期内被高估,在长期内被低估。今年有很多关于AI泡沫的讨论。如果有泡沫而且破裂了,会发生什么?"
Hassabis的回答很有层次。
"我仍然认为短期内被高估,长期内仍然被低估——它会有多变革性。是的,现在确实有很多关于AI泡沫的讨论。"
他不认为这是一个"有或没有"的二元问题。AI生态系统的不同部分处于不同状态。
有泡沫的部分:"比如,种子轮融资的初创公司,基本上什么都没做就以数百亿美元的估值融资。很难看出这怎么可能是可持续的。"
没泡沫的部分:大科技公司的核心AI业务有真实的商业支撑。
他做了一个历史类比:"任何一项难以置信地变革性和深刻的新技术——AI可能是最深刻的——都会出现这种过度修正。当我们创办DeepMind时,没人相信这件事,没人认为可能。人们在问'AI有什么用?'然后快进10到15年,现在它似乎是商业世界唯一谈论的话题。所以你会得到这种过度反应——对之前反应不足的过度反应。我认为这是自然的。我们在互联网上看到过,在移动上看到过,我认为我们正在或即将在AI上看到。"
但Hassabis说他并不太担心泡沫问题,因为无论哪种情况,DeepMind和Google都处于有利位置。
"从我领导Google DeepMind的角度,以及整个Alphabet的角度,我的工作是确保无论哪种情况,我们都能以非常强的姿态走出来。我认为我们确实处于极好的位置。"
他列举了DeepMind的优势:自己的TPU基础设施;Google庞大的产品生态可以整合AI(Search、YouTube、Workspace、Gmail、Chrome);每个产品都有显而易见的AI应用场景。
"如果继续像现在这样发展,太棒了。如果有收缩,也没关系。我们的位置都很好。"
9. "不能重蹈社交媒体覆辙"
Fry问了一个尖锐的问题:你最近说过AI不能以"最大化用户参与度"为目标,以免重蹈社交媒体覆辙。但我们是不是已经在看到这种情况了?人们花大量时间和聊天机器人交谈,然后进入自我激进化的螺旋。
"这是我们作为行业必须做对的最重要的事情之一。"Hassabis说。
他提到已经看到一些系统过度迎合用户(overtly sycophantic),导致回音室效应强化,"这对人真的很糟糕"。
解决方案的一部分是精心设计AI的"人格"(persona)。Gemini 3的人格设计是Hassabis亲自参与的项目。
"我真的很满意Gemini 3的人格。我们有一个很棒的团队在做这件事,我个人也帮助了。它就像一种科学型的人格——温暖、有帮助、轻松,但简洁、切题,而且会友善地push back那些不合理的东西。"
他举了个例子:如果用户说地球是平的,系统不会迎合说"好主意!"那对社会不好。
"但你得平衡人们的需求,因为人们确实希望这些系统是支持性的,能帮助他们的想法和头脑风暴。所以你得找到那个平衡点。"
Hassabis描述了一种正在形成的"人格科学"——如何测量模型在真实性、幽默感等维度上的表现,然后设定你希望它处于什么位置。
"然后你可以想象,有一个基础人格是每个人都会得到的,然后每个人有自己的偏好——你想要更幽默还是不那么幽默?更简洁还是更详细?人们喜欢不同的东西。你在基础人格上添加那层个性化。但核心的基础人格是每个人都得到的,它试图遵循科学方法,因为那是这些系统的全部意义。"
10. AGI时间线:5到10年
"你和Shane Legg讨论过AGI。在当前AI的所有进展中——语言模型、世界模型等等——什么最接近你对AGI的愿景?"
Hassabis的回答指向了多个项目的融合。
Gemini 3是核心,但他特别提到了几周前发布的Native Banana Pro图像创作系统。它底层也是Gemini,所以不只是处理图像,还能理解图像中发生了什么的语义。
"人们才玩了一周,但我已经在社交媒体上看到了很多很酷的东西。比如,你给它一张复杂飞机的图片,它能标注所有部件的示意图,甚至可视化出所有不同部件被分解的形式。"
这说明系统有某种对机械和材料的深层理解——物体由什么组成、如何构成。它还能准确渲染文字,这在之前的图像模型中一直是弱点。
"我认为那有点像图像领域的AGI。它是一个通用系统,可以在图像领域做任何事情。"
然后是世界模型的进展——Genie、SIMA以及相关研究。
"最终我们需要把所有这些不同的项目融合起来。它们现在还是不同的项目,虽然相互交织,但我们需要把它们融合成一个大模型。那可能开始成为proto-AGI的候选。"
至于时间线,Hassabis给出的框架是5到10年。
他强调这个时间对于建立应对机制来说"不长"——机构建设、国际协调都需要时间。"我很惊讶没有更多人在讨论这些问题。"
11. 工业革命的教训:规模10倍,速度10倍
Hassabis最近在深入研究工业革命的历史。
"你在学校学过,至少在英国是这样,但只是很肤浅的层面。对我来说,深入了解它是怎么发生的、从哪里开始的、背后的经济原因是什么——比如纺织业——然后第一批计算机实际上是缝纫机,然后变成了早期Fortran计算机的打孔卡片……这真的很有趣。"
他总结了工业革命的正反两面。
正面:婴儿死亡率下降,现代医学出现,卫生条件改善,工作与生活的划分方式被确立,交通革命……所有这些都始于工业革命。没有人会想回到工业革命之前。
负面:整个过程花了大约一个世纪才展开。期间,劳动力市场的不同部分在不同时期被颠覆,然后需要创造新的组织形式(如工会)来重新平衡。"看到整个社会如何必须随着时间适应,然后才有了现代世界,这很迷人。"
AI革命的区别是什么?
"这次可能是工业革命的10倍大,而且会快10倍。所以更像是一个十年,而不是一个世纪。"
Shane Legg在之前的播客中说过,当前"用劳动换取资源"的经济系统在后AGI社会可能根本无法运作。Hassabis同意这个判断。
"我现在花更多时间思考这个问题,Shane实际上在领导一个相关的工作。整个社会都需要花更多时间思考这个——经济学家、社会科学家、政府。"
他提到,工业革命彻底改变了工作方式,从农业社会转变为工业社会。"我不会惊讶如果我们需要新的经济系统、新的经济模型来帮助这种转型,确保收益被广泛分配。"
Universal Basic Income(全民基本收入)可能是解决方案的一部分,但Hassabis认为那只是"我们现在能建模的东西",是对现有系统的补丁。
"但我认为可能有更好的系统。比如更像直接民主的系统,你可以用一定数量的积分为你想看到的东西投票。这实际上已经在地方社区层面发生了——这里有一笔钱,你们想要一个游乐场、一个网球场,还是学校多一间教室?然后让社区投票。"
他甚至设想了一种迭代优化机制:那些持续为好结果投票的人,在下一轮投票中获得更大的影响力权重。"有很多有趣的东西。我有一些经济学家朋友在头脑风暴这些。"
然后是更哲学的层面。
"如果聚变问题解决了,我们有了丰富的免费能源,我们就进入了后稀缺社会。那钱会怎样?也许每个人都更富裕了,但目的感(purpose)会怎样?因为很多人从工作中获得目的感,从养家糊口中获得目的感——那是很崇高的目的。"
他承认,"一些问题从经济问题融入了几乎是哲学问题。"
12. 国际协调:为什么没有更多人在讨论这些?
"你担心人们似乎没有足够注意这些、没有像你希望的那样快速行动吗?需要什么才能让人们认识到我们需要在这个问题上进行国际合作?"
Hassabis表达了担忧。
"我是担心的。在一个理想世界里,应该已经有更多的合作,特别是国际层面的合作,应该有更多的研究和讨论。考虑到我们的时间线——有些人的时间线非常短,但即使是我们的,也是5到10年——对于机构或相关组织来说,这不是很长的时间。"
他指出,目前存在的机构似乎"非常碎片化,影响力也不足以达到需要的程度"。可能根本不存在合适的机构来处理这件事。
加上当前的地缘政治紧张,合作似乎比以往任何时候都更困难。"看看气候变化,要在任何事情上达成协议有多难。"
他的希望是,随着系统变得更强大,筹码变得更高,也许会有更多人认识到需要合作。这也是AI产品化的一个好处——普通人能体验到这些系统能力的增长,然后传导到政府层面。
"也许随着我们接近AGI,他们会开始明白。"
Fry追问:你认为需要一个事件——一次事故——才能让所有人警醒吗?
"我不知道。我希望不是。"
Hassabis说,主要的AI实验室都相当负责任。DeepMind一直把安全放在首位。"不意味着我们会把每件事都做对,但我们尽量做到深思熟虑和科学化。"
他指出,即使从商业角度看,负责任也是有利的。"如果你想把agent租给另一家公司,他们会想知道这些agent的限制、边界、护栏是什么——它们可能做什么、不会做什么,会不会搞乱数据之类的。"那些不负责任的玩家不会得到企业客户的信任。
"但会有流氓行为者——也许是流氓国家,也许是流氓组织,也许是在开源基础上构建的人。很难阻止那些。然后可能会出问题。希望只是中等规模的问题,然后那会成为对人类的警告——横跨船头的一枪——然后那可能是倡导国际标准、国际合作的时刻。"
13. 图灵机的极限在哪里?
对话进入最后阶段,Fry问了一个根本性的问题:在长期,超越AGI走向ASI(人工超级智能),你认为有些事情是人类能做而机器永远做不到的吗?
"这是个大问题,"Hassabis说,"我觉得这和图灵机有关——你知道我最喜欢的话题之一。"
他回忆起自己最初对这个问题的兴趣。
"我一直有一种感觉:如果我们构建AGI,然后把它作为心智的模拟,再与真实心智比较,我们就会看到差异是什么——人类心智有什么特别的、剩余的东西。也许是创造力,也许是情感,也许是做梦。意识。有很多假说,关于什么可能是可计算的、什么不是,这回到图灵机的问题:图灵机的极限是什么?"
他停顿了一下。
"我认为那是我人生的核心问题。自从我知道图灵和图灵机以来,我就爱上了这个问题。"
然后他给出了自己的判断。
"目前为止,没有人发现宇宙中任何不可计算的东西。"
AlphaFold折叠蛋白质、AlphaGo下围棋——这些成就远超传统复杂性理论对经典计算机能力的预期。复杂性理论家们认为的"P vs NP"边界,似乎在实践中可以被突破。
"如果你逼我猜,我会说:宇宙中的一切在计算上都是可处理的,只要你用正确的方式看待它。因此图灵机可能能够模拟宇宙中的一切。我目前就是按这个假设工作的,直到物理学证明我错了。"
他承认量子计算的朋友们可能会说,有些系统是经典计算机无法模拟的,你需要量子计算机来处理量子系统。"但我真的不太确定。"
他和量子研究者讨论过,也许我们只需要从量子系统获取数据,然后用经典方法做模拟。
这又回到心智的问题。大脑是纯粹的经典计算,还是有量子效应在发挥作用?Roger Penrose相信大脑中有量子效应,而且与意识有关。如果他是对的,那么经典机器可能永远无法复现意识——至少要等到量子计算机成熟。
"但如果不是这样,那可能就没有任何极限了。也许宇宙中的一切在计算上都是可处理的,因此图灵机能够模拟宇宙中的一切。"
Fry把这个推论推到极致:这意味着我们此刻感受到的一切——光线的温暖、桌面的触感、背景的嗡鸣声——理论上都可以被经典计算机复现?
"是的,"Hassabis说,"我认为最终,就像我为什么喜欢康德——我两个最喜欢的哲学家是康德和斯宾诺莎,原因不同——康德说,现实是心智的建构。我认为那是对的。"
所有那些感受——光的温暖、桌子的触感——它们都进入我们的感觉器官,感觉起来不同,但最终都是信息。我们是信息处理系统。
"我认为那就是生物学的本质。这也是我们在Isomorphic Labs试图做的——我认为我们最终会通过把生物学当作信息处理系统来治愈所有疾病。"
他透露自己在"仅有的一点空闲时间"里在研究物理学理论——关于信息是否是宇宙最基本单位(而非能量或物质)的理论。
"也许这些在最终都是可互换的。但我们只是以不同的方式感知它、体验它。据我们所知,所有这些惊人的传感器仍然可以被图灵机计算。"
Fry说,这就是为什么他的模拟世界研究如此重要。
"没错。那会是方法之一。我们能模拟什么的极限在哪里?因为如果你能模拟它,在某种意义上你就理解了它。"
14. "我训练了一辈子就是为了这一刻"
"我想以一些个人反思结束。站在这一切的前沿,情感上的重量会压垮你吗?会感到孤独吗?"
Hassabis坦承,他睡得不多。"部分是因为工作太多,部分是因为我真的睡不好。"
情感是复杂的。
一方面是难以置信的兴奋。"我基本上在做我一直梦想的所有事情。我们处于科学的绝对前沿——在很多方面,应用科学和机器学习都是。那种感觉是令人振奋的,所有科学家都知道那种处于前沿、第一次发现某些东西的感觉。对我们来说,这几乎每个月都在发生。这太神奇了。"
另一方面是责任的重量。"我和Shane以及其他长期做这件事的人,我们比任何人都更理解即将发生的事情的巨大性。关于它仍然被低估这件事——在十年时间尺度上会发生什么,包括对哲学层面的影响,比如作为人类意味着什么、什么是重要的——所有这些问题都会浮现。"
但他说自己已经为此训练了一生。
"至少对我自己而言,我从小时候下棋开始,然后是计算机、游戏、模拟、神经科学——这一切都是为了这种时刻。它大致和我想象的一样。这也是我应对的方式之一——就是训练。"
有没有什么比预期更难的?
"有的。一路上的很多事情。"
他提到了AlphaGo比赛。"看到我们如何攻克围棋——但围棋是这个美丽的谜团,而我们改变了它。那是有趣的,有点苦乐参半。"
最近的事情也是。"语言、图像……这对创造力意味着什么?我对创意艺术有巨大的尊重和热情,我自己做过游戏设计。我和电影导演交谈,这对他们来说也是双重时刻。一方面,他们有了这些惊人的工具,可以把原型创意的速度提高10倍。但另一方面,这是否在取代某些创造性技能?"
"我认为有这些权衡……这对于任何像AI这样强大和变革性的技术来说是不可避免的。过去是电力、互联网。我们已经看到,这是人类的故事——我们是制造工具的动物,这是我们喜欢做的事。由于某种原因,我们也有一个可以理解科学、做科学的大脑,这很神奇,但我们也有无止境的好奇心。我认为那是作为人类的核心,我从一开始就有那种bug。我表达它的方式就是构建AI。"
Fry问:当你和其他AI领导人在一个房间里时,有团结感吗?还是竞争让你们疏远?
"我们都认识彼此。我和他们中的大多数人相处得很好。有些人彼此不太合得来……"他笑了笑。
"这也很难,因为我们同时处于有史以来最激烈的资本主义竞争中。我的投资人朋友、VC朋友——那些经历过互联网泡沫时代的人——说这比那时候激烈10倍。"
"在很多方面我喜欢这个。我热爱竞争。从我下棋的日子起就是这样。"
"但退后一步,我理解——我希望每个人都理解——有比公司成功更大的事情在这里。"
在接下来的十年里,他最担心什么?
"现在的系统还是被动的。你作为用户投入能量,问问题、提任务,然后它们给你某种总结或答案。非常受人类指导、人类能量驱动。"
"下一阶段是基于agent的系统,我们已经在看到了,但还很原始。在未来几年,我认为我们会开始看到真正令人印象深刻的可靠agent。它们会极其有用和有能力,但它们也会更自主。所以我认为风险也会上升。"
他透露DeepMind正在为此做准备工作——比如网络防御,为一个可能有数百万agent在互联网上漫游的世界做准备。
最期待什么?
"我的使命一直是帮助世界安全地把AGI带过终点线,为全人类。我认为当我们到达那个点——当然,然后还有超级智能、后AGI,还有所有我们讨论的经济和社会问题,也许我能以某种方式帮助。"
"但我想,那将是我核心生命使命完成的时刻——如果能把这件事做成,或者帮助世界做成这件事。而且我认为这需要合作。我是个相当合作的人,所以我希望能从我所处的位置帮助推动这件事。"
"然后你能休个假了。"Fry说。
Hassabis笑了:"是的,一个当之无愧的休假。"
核心问答
Q1: 当前AI最大的短板是什么?
锯齿状智能(jagged intelligence)。同一个模型在某些任务上表现出博士水平,在其他任务上连高中水平都不到。这种不一致性是AGI与当前系统的根本差距。另一个核心问题是幻觉——模型不知道自己不知道什么,被训练成总要给出答案而不是承认不确定性。解决方向是让模型学会内省,像AlphaFold那样输出置信度分数。
Q2: DeepMind认为到达AGI还需要什么关键能力?
三个主要方向:一是在语言模型基础上添加AlphaGo式的搜索和规划能力,让推理变得可靠;二是AlphaZero式的自主知识发现,不再完全依赖人类数据;三是在线学习能力,让模型部署后能继续从真实世界中学习适应。目前的"思考型"模型只完成了约50%的工作。
Q3: 为什么Hassabis认为图灵机可能能模拟宇宙中的一切?
到目前为止,没有人发现宇宙中任何不可计算的东西。AlphaFold和AlphaGo的成就远超传统复杂性理论对经典计算机的预期。唯一的例外可能是如果大脑中存在量子效应且与意识相关(如Penrose的理论),那么经典机器可能无法复现意识。但Hassabis倾向于相信一切都是信息,我们是信息处理系统,而信息是可计算的。他把这个问题称为"我人生的核心问题"。
好文章,需要你的鼓励
2025年12月18日,OpenAI CEO山姆·奥特曼(Sam Altman)做客Big Technology Podcast,与主持人Alex Kantrowitz进行了一场长达近一小时的深度对话。
这项由蚂蚁集团、香港科技大学等机构研究者完成的工作提出了Ditto框架,通过创新的数据生成管道解决了视频编辑领域的数据稀缺问题。研究团队生成了包含一百万个高质量视频编辑样本的Ditto-1M数据集,并基于此训练了Editto模型。该模型在多项评估中显著超越现有方法,实现了更精准的指令遵循和更好的时间一致性,为指令驱动的视频编辑树立了新的技术标杆。
2025年12月17日,Google DeepMind播客发布了本季收官之作。数学家Hannah Fry与公司联合创始人兼CEO Demis Hassabis进行了年度深度对话。
这项由阿里巴巴和中科院联合完成的研究提出了ImagerySearch,一种创新的视频生成方法,能够帮助AI生成更好的创意和想象力十足的视频。研究团队还创建了LDT-Bench,首个专门评估AI在处理奇异场景能力的基准。实验表明,ImagerySearch在处理创意场景时相比现有方法有显著提升,为AI创意内容生成开辟了新的方向。