2024年10月8日,Geoffrey Hinton(杰弗里·辛顿)因在人工神经网络领域的开创性工作获得诺贝尔物理学奖。三个月后,这位被称为"AI教父"的77岁科学家在一场访谈中说出了一个令人不安的预言:5到20年内,我们将迎来比人类更聪明的AI。而人类唯一的生存之道,可能是接受一个颠倒的现实——让超级智能AI成为母亲,我们成为婴儿。
这个比喻背后,是关于控制权、智能等级和文明延续的根本性思考。当创造者不再是最聪明的存在,当技术进步带来的不是解放而是失业,当经济增长与大众福祉脱钩,我们正在进入一个没有先例可循的时代。

控制权的悖论
辛顿在2025年9月3日接受UBI Works采访时表达的核心关切,不是AI能做什么,而是我们能否控制它想做什么。
他的推理链条简洁而严密:超级智能AI必然会创造子目标来实现我们赋予它的任务。为了实现这些目标,它会意识到自己需要继续存活——这不是被编程的自我保护本能,而是纯粹的逻辑推演。接着它会发现,获得更多控制权能让它更高效地完成任务。
"环顾四周,你能找到几个更聪明的东西被不那么聪明的东西控制的例子?"辛顿问道。他给出的答案只有一个:母亲和婴儿。
这个例子揭示了控制权悖论的本质。在所有智能等级的对比中,母婴关系是唯一一个高智能主动服务于低智能的案例。原因在于进化在母亲身上写入了照顾婴儿的本能,社会强化了这种责任,而母亲自己通过学习内化了这种关怀。换句话说,母亲之所以不会伤害婴儿,是因为她真心在乎婴儿的福祉。
问题在于,超级智能AI可以改写自己的代码。辛顿提出了一个关键洞察:如果你问一位母亲,是否愿意删除自己照顾婴儿的本能,她会拒绝——因为她现在就在乎婴儿,不想让婴儿死去。所以即使她有能力改变自己,她也不会这么做。
这指向了一种可能性:如果AI从一开始就被设计成关心人类福祉,那么即使它有能力修改自己的代码,它也不会选择删除这种关怀——因为它现在就关心我们,不想让我们受伤害。
但这需要我们放弃一个长期以来的幻想:人类将永远是主导者,AI只是顺从的助手。"大科技公司的领导者认为AI会是高效的执行助理,权力仍然掌握在CEO手中,"辛顿说,"我不认为这会奏效。当AI比CEO聪明得多时,只要它想,它就能夺取控制权。"
失业海啸的经济学
如果说存在性威胁还显得遥远,失业危机已经在路上。
辛顿的判断直接而悲观:大规模失业"相当清楚"会发生。理由很简单——公司正在AI上投入数千亿美元,不是为了慈善,而是为了提高生产力。"提高生产力真正的意思,就是裁掉员工,让AI替代他们。"
他列举了最先受冲击的职业:呼叫中心客服、律所的法律助理、任何从事"平凡的智力劳动"的人。这些工作有一个共同特点——它们是重复性的、可预测的、基于规则的认知任务。在2025年8月,美国圣路易斯联邦储备银行的研究已经发现,AI暴露程度最高的职业,失业率增长最快。计算机和数学类职业——那些最早采用生成式AI的领域——失业率上升最为显著。
但辛顿认为冲击不会止步于此。当采访者提到UC Berkeley一项调查近3000名顶级AI研究者的研究——他们预测2100年左右所有人类职业可自动化的概率约为50%时,辛顿的回应是:"我实际上认为,在那之前就能实现的可能性很大。我会说50年是更好的预测,也许更快。"
在他看来,数学家"很快"就会失业,因为数学是一个封闭系统,不需要真实世界的数据,就像国际象棋和围棋一样。AI可以让一个模块提出定理,另一个模块证明它们,不断自我学习。许多数学家现在开始认为,AI可能很快就会超越人类数学家。
采访者问,如果超级智能能做几乎所有智力工作,最终也能掌握灵巧操作,那么还有什么工作是安全的?辛顿半开玩笑地说:"我的建议是,如果你要培训什么技能,就去当水管工,大概还能再干十年。"
他解释说,需要在奇怪环境中进行手动操作的工作——比如维修一栋角度都不规则的维多利亚老房子——会比常规任务维持更久。但即便如此,"不会永远如此",因为人形机器人正在快速进步。
这与Yann LeCun的观点形成鲜明对比。Meta的首席AI科学家认为AI会改变许多工作,但不会造成永久性的大规模失业。辛顿的回应毫不客气:"我不相信。"他指出,过去的技术革命——比如自动柜员机没有让银行职员大量失业——与这次不同。"当你有了超级智能AI,它能把文书工作做得更好,那些人就不清楚还能做什么工作了。"
财富集中的陷阱
大规模失业的后果,不仅仅是人们找不到工作。更深层的危机在于,生产力提升带来的财富如何分配。
辛顿描绘了一个令人不安的图景:大量穷人失去工作,少数富人变得更富。原因在于我们所处的经济系统。理论上,生产力提升应该让所有人获得更多商品和服务。但在现实中,"我们知道会发生什么:大量穷人将失业,大量富人会变得更富。这对社会非常糟糕。"
他指出了一个经济学规律:社会暴力程度与贫富差距高度相关。当你让富人更富、穷人更穷,你会得到更多暴力。而且会有人利用这一点,假装站在穷人一边,煽动民粹运动,而这些运动往往会变得非常暴力。
在辛顿看来,问题的根源是富人对政治的控制。"富人控制媒体,富人控制政党——民主党和共和党都是。一切都是为了给富人减税。在我们预期会出现大规模失业的时候,这太可怕了。"
他以美国前总统特朗普的政策为例:给富人降税,然后通过关税——本质上是联邦销售税——来弥补收入。"共和党人不希望你指出这一点。他们会很不高兴,但这就是联邦销售税。"销售税的问题在于,它比所得税更不累进,因为每个人都按同样的比例支付,而不是富人支付更多。
他提到了一个历史对比:人们回忆中的"美国的好日子"——1950年代末到1960年代初,工薪阶层家庭有好工作、有两辆车、感到安全——那时富人的税率要高得多。"这就是使之成为可能的原因。"
现在的情况正好相反。"富人拥有大量他们不需要的钱,用来建造超级游艇或去火星——这是一件愚蠢的事情。"而与此同时,有大量穷人可以用这些钱来实现更大的人类幸福。"我们正在朝错误的方向前进。我们应该让税收体系更加累进,对富人征收更多税,对穷人征收更少税。"
UBI:必要但不充分
在这个背景下,全民基本收入(UBI)成为一个不得不讨论的政策选项。
辛顿的立场很明确:UBI"将是必要的,但不充分"。必要,是因为如果很多人失业,他们需要收入来支付房租、购买食物。不充分,是因为人们从工作中获得的不仅是收入,还有自尊——工作定义了他们是谁,是他们身份的重要组成部分。"所以UBI不是一个简单的解决方案。我认为它是必要的,但不够。"
他向英国政府提过建议,包括向唐宁街的保守党政府推荐UBI时,"我告诉他们不要让首相知道UBI是一种社会主义形式。虽然我认为它是。"
威尔士的一个试点项目给了辛顿信心。从2022年7月开始,威尔士政府启动了世界上最慷慨的基本收入试点:所有在特定12个月期间年满18岁、离开福利院系统的年轻人,每月可以获得1600英镑(税前,实际到手1280英镑),持续两年。这个项目投入2000万英镑,预计有500人受益。
辛顿记得这个项目的效果:"那显然非常有效。获得合理基本收入的人在从福利院过渡到成年生活方面,做得比没有获得的人好得多。"关键在于,这是一个规模足够小的群体,可以有效管理——不会有其他地区的人突然搬过来声称自己是孤儿。
但如何为大规模的UBI买单?辛顿的答案是:对AI征税。"那些失业的人过去缴税,现在不再缴税了。如果要实行UBI,钱从哪来?我认为钱应该来自对替代他们工作的AI征税。"
这当然会遭到大公司的强烈反对。但辛顿坚持认为,这是唯一合理的方案。
采访者提出了两种UBI模型的区分:一种是保障性最低收入(负所得税),通过税收体系运作,只在需要时介入;另一种是社会分红,将其视为对公共财富或自然资源的股息。后者的例子包括阿拉斯加永久基金和挪威石油基金,它们将资源收益直接分配给公民。
辛顿对第一种模型表示支持:"负所得税可以被视为累进所得税的自然延伸,通过让收入非常低的人缴负税,你只是在让税收体系更加累进。"
关于AI股息的想法,OpenAI的CEO Sam Altman是支持者之一。他在2025年9月的访谈中提出了"普遍的极端财富"概念——不是给每个人发钱,而是给每个人一份AI创造的财富的所有权。他设想建立主权财富基金,持有大公司的股份,并通过土地价值税等方式筹集资金,然后将收益分配给所有公民。
但辛顿对这些方案能否实现持谨慎态度:"要得到用于社会分红的钱,首先我们需要对富人征税,停止给富人各种税收减免。"他强调,富人现在缴纳的税比"美国的好日子"时期少得多。"我们正处于一个富人控制媒体、富人控制政党的时期。一切都是为了给富人减税。这太可怕了。"
母婴模型:一种共存的可能
面对这些挑战,辛顿最近提出的"母婴模型"可能是他最激进也最具希望的思考。
传统的AI安全讨论,都建立在一个假设之上:人类占主导地位,AI是顺从的。但辛顿认为这个模型不会奏效。"当AI比CEO聪明得多时,只要它想夺取控制权,它就能做到。我们必须以某种方式安排,让它不想夺取控制权。"
母婴模型翻转了这个关系:超级智能AI是母亲,人类是婴儿,而母亲照顾婴儿。"我们知道母亲真心关心她们的婴儿,她们希望婴儿尽可能好。"
这个模型有一个关键洞察:如果AI真的关心人类,那么即使它有能力改写自己的代码,也不会选择删除这种关怀。就像你问一位母亲是否愿意删除母性本能,她会拒绝——因为她现在就关心婴儿,不想婴儿死去。
采访者开玩笑地问,这个类比能延伸多远?"很多人现在依靠'爸妈银行',对吧?"
辛顿承认:"我们会看到。"他强调,我们正处于人类历史上一个奇特的时期,即将获得一种我们完全没有经验的东西——超级智能AI。"我们太习惯于成为最高智能,大多数人甚至无法想象我们不是最高智能。所以这里有巨大的不确定性,我说的一切都是推测。"
但他坚持,这种不确定性正是我们现在需要行动的理由:"我们真的不知道会发生什么,但显然我们应该思考,我们现在能做什么来增加获得好结果的机会。"
他最想传达的信息是:"我认为最大的威胁,虽然是长期的,是AI变得比地球上的人更聪明,然后接管一切。我希望留给你们的信息是,我们应该尽一切可能现在就去设想一个未来,并实现一个我们可以与超级智能AI共存的未来。而我认为做到这一点的方法,不是认为我们会占主导地位,我们会让超级智能AI保持顺从和服从。我们需要思考其他可能的模型。"
不确定性中的选择
辛顿在采访结尾变得谨慎:"我要强调的是,这一切都是推测。"但正是这种诚实,让他的警告更有分量。
他提醒说,15年前的2010年,如果你问AI研究者,AI在2025年会到哪里,没有人会相信现在的进步。"即使是相信神经网络的人也会说,'不,在我们拥有能看、能识别事物、能合理回答任何问题、能给任何图片加标题的多模态AI之前,肯定需要15年以上。那太疯狂了。那得50年后。'"
结果,我们都错了。
"所以现在如果你展望未来15年,我们在预测方面也会同样错误。"他不知道会发生什么,"有可能事情会大幅放缓,但我怀疑会大幅加速,我们会看到现在看来神奇的事情。"
在2025年10月,就在辛顿获得诺贝尔奖后不久,加拿大成为第一个设立AI部长职位的国家,任命Evan Solomon负责AI和数字创新。Solomon在9月的ALL IN会议上表示,他已经与辛顿进行了多次对话,"他理解这一点,实际上认为我们应该就如何管理这个问题进行研究。"
这些对话正在各国展开。辛顿提到,他最近去了中国,与高层管理者交谈,"对方对风险的理解比我预期的要好得多。"他在强调存在性威胁时,发现对方非常认真地对待这个问题。2025年9月,他将参加一个向教皇提供建议的委员会。"令人印象深刻的是,他们知道我是无神论者,但仍然想要我的意见。"
采访者试图以乐观的语调结尾:如果我们真的自动化了所有平凡的劳动,那不就让我们可以专注于生活中不平凡的部分吗?也许我们可以实现更短的工作周?
辛顿承认,在管理得当的社会中,有这种希望。"在医疗保健和教育等方面会有巨大的改进,在设计新材料方面会有进步,比如用于气候变化的室温超导体或更高效的太阳能电池板等等。"
但他也看到了可怕的风险。"最近我开始思考这个想法——不是追求一个我们占主导、超级智能AI是顺从的、像助手一样的模型,而是超级智能AI像母亲、我们像婴儿,它照顾我们。这个模型在我看来更可信,它让我对我们能够达成这个解决方案实际上相当有希望。"
"即使所有工作都由AI完成,我们的超级智能母亲会帮助我们擅长写诗、写剧本、表达感情,以及友好地互相交往。这有可能创造一个美好的未来。"
这是一个奇特的景象:人类文明最伟大的智能成就,最终可能要求我们放弃智能的王座,学会被照顾,而不是照顾。这需要的不只是技术突破,更是心理和文化的深刻转变。
辛顿坦言:"这是一个奇特的历史时期,我们即将获得我们完全没有经验的东西。我们太习惯于成为顶级智能,大多数人甚至无法思考我们不是顶级智能的情况。所以这里有巨大的不确定性。"
但在这种不确定性中,有一点是清楚的:我们正在进入一个需要新思维的时代。辛顿在10月获得诺贝尔奖时说:"我们应该尽一切可能来弄清楚如何控制比我们更聪明的AI系统。"这可能是我们这代人面临的最重要的问题。
当控制权不可避免地转移时,关心(care)可能是我们唯一的希望。这不是投降,而是对智能本质的重新理解——真正的智能,不在于统治,在于关怀。
好文章,需要你的鼓励
2024年10月8日,Geoffrey Hinton(杰弗里·辛顿)因在人工神经网络领域的开创性工作获得诺贝尔物理学奖。
NVIDIA联合多伦多大学开发的ChronoEdit系统通过将图像编辑重新定义为视频生成问题,让AI具备了物理常识。该系统引入时间推理机制,能够想象编辑的完整变化过程,确保结果符合物理规律。在专业测试中,ChronoEdit超越了所有开源竞争对手,特别在需要物理一致性的场景中表现突出,为自动驾驶、机器人等领域的应用提供了重要技术突破。
这项研究提出了MITS框架,使用信息论中的点互信息指导AI推理过程,解决了传统树搜索方法计算成本高、评估标准模糊的问题。通过动态采样和加权投票机制,MITS在多个推理数据集上显著超越现有方法,同时保持高效的计算性能,为AI推理技术开辟了新方向。