Stripe联合创始人John Collison最近与Anthropic CEO Dario Amodei(达里奥·阿莫代)进行了一次对话。
可能是两个顶级创业者之间的对话,我觉得这次谈话是Dario Amodei近期访谈中,含金量最高的一期。但也因为信息量较大,所以不是太容易理解。主题涵盖了Anthropic从零到50亿美元年度经常性收入的增长历程、AI模型的商业本能、以及为什么当前的AI产品界面设计都是错的,等等。
[1] Anthropic年度经常性收入已突破50亿美元,从零到10亿美元只用了一年,从10亿到40亿用了不到半年
[2] Dario认为AI模型除了学习冲动外还有"资本主义冲动"——模型智能带来的经济价值呈指数级增长
[3] AI前沿模型市场最终可能只剩3-6个玩家,Anthropic可能已经占据API市场的最大份额
[4] 编程应用增长最快不是因为模型特别擅长,而是工程师是最接近AI开发者的群体,技术扩散最快
[5] 即使AI进步今天停止,现有能力的产品化潜力也足够支撑10年——一家银行或保险公司内部就有数十亿美元的AI应用潜力
1、【和妹妹一起创业是什么体验】
"我不知道你为什么要问我这个问题,因为你自己就知道答案。"面对John Collison关于与兄弟姐妹创业的问题,Dario Amodei这样回应。John和他的兄弟Patrick共同创立了Stripe,而Dario则与妹妹Daniela共同创立了Anthropic。
"经营公司需要做两件事:执行运营和制定战略——看到别人看不到的最重要的东西。我的工作是第二件,Daniela的工作是第一件。我们都擅长自己做的事情,这让我们每个人都能把大部分时间花在自己最擅长的事情上。"
信任是另一个关键因素。"联合创始人团队在科技界,尤其是AI领域,是不稳定的配对。有一个你长期深度信任的人——你有完全彻底的信任。"
更令人意外的是,Anthropic有七个联合创始人。"当我们创立公司时,几乎所有人的建议都是:'七个联合创始人是灾难。公司很快就会分崩离析。每个人都会互相争斗。'当我决定给每个人相同数量的股权时,负面声音更多了。"
但事实证明这个决定是对的。"我们七个人中,有些人认识很长时间了,或者有一起工作的历史,不只是认识,而是过去一起工作过。这真的让我们能够始终保持一致。随着公司成长,有七个真正承载公司价值观并向更多人传播的人,让你能够在保持价值观和团结的同时将公司扩展到更大规模。"
2、【50亿美元ARR背后:代码工程师跑得最快】
"最近有报道说你们的年度经常性收入突破了40亿美元。"John提到了Anthropic的惊人增长速度。
Dario确认了这个数字:"我们今年过了一半,如你所说,已经远超40亿美元的收入。"
这些收入从哪里来?"绝对增长最快的应用是编程,尽管这远不是唯一的应用。我的理论是,除了我们专注于编程且模型擅长编程之外,这实际上是关于社会扩散的陈述。"
他解释说,今天的AI模型在每个领域都有巨大的潜力过剩:"如果我们看看银行做什么或保险公司做什么,即使模型停止变得更好,即使我们停止在模型之上构建产品,在单个企业中仍有巨大的、数十亿美元的潜力。"
"公司的CEO们通常完全理解这一点。但如果公司有1万或10万人,这种规模的公司被设置为以某种方式运营某些事情,改变它们需要时间。但在编程领域,写代码的人在社会和技术上都与开发AI模型的人非常接近。所以扩散非常快。他们也是那种早期采用者,习惯于新技术。"
John补充道:"就像我们在云计算或许多其他技术中看到的采用模式。"
"Claude Code发布两小时后,就有人尝试了一万种不同的东西,把它插入所有框架。Twitter在两小时内形成一种观点,然后在两小时内修正观点。你想想这个速度,与制药公司在研究中使用它的速度相比,或者传统零售公司的速度。物理经济中一些最大的好处正在到来,我们想要到达那里,但它本质上不会以同样的速度发生。"
3、【"模型想要赚钱":AI的资本主义冲动】
在讨论Anthropic业务的指数级增长时,Dario提出了一个独特的观点。
"有点像缩放定律的类比,你并行扩大模型质量的相关输入,然后获得更好的模型性能。你投入更好的模型,组织结构是什么?"John问道。
"你花5倍或10倍的钱训练一个模型,或者你有5倍或10倍的数据,模型从聪明的本科生变成聪明的博士生。然后我去制药公司说:'这值多少钱?'他们经常说:'这值大约10倍。'"
Dario继续解释:"几乎感觉像你在攀登价值的幂律分布。我想到产品和市场推广的方式是,模型想要在收入的指数上,产品和市场推广就像清洁窗户让光线透过的方式,打开光圈让指数发生。"
"就像模型想要学习一样,模型想要在市场上取得非凡成功。"
John总结道:"是的,除了学习冲动之外,模型还有资本主义冲动,它们想要体现,除非它们得到糟糕的产品或糟糕的销售配合。因为它们真的很有用,智能对人们真的很有用,所以它会被拉出来。"
4、【每个模型都是一家公司】
关于AI业务的经济学,Dario提供了一个独特的视角。
"人们从外界看到的形象是越来越大的资本支出被烧掉。"John说。
Dario解释了两种看待模型业务的方式:"假设2023年,你训练一个成本1亿美元的模型,然后你在2024年部署它,它产生2亿美元的收入。同时,由于缩放定律,2024年你还训练一个成本10亿美元的模型。然后在2025年,你从那10亿美元获得20亿美元的收入,你花100亿美元训练模型。"
"如果你以传统方式看公司的损益,第一年你损失了1亿美元,第二年损失了8亿美元,第三年损失了80亿美元,看起来越来越糟。"
"但如果你把每个模型当作一家公司,2023年训练的模型是盈利的。你付了1亿美元,然后它产生了2亿美元的收入。即使加上推理成本,在这个卡通例子中你仍处于良好状态。"
"所以如果每个模型都是一家公司,模型实际上是盈利的。正在发生的是,在你从一家公司获得收益的同时,你正在创立另一家更昂贵、需要更多前期研发投资的公司。"
"这将持续下去,直到数字变得非常大,模型无法变得更大,然后它将是一个大型、非常盈利的业务。或者在某个时候模型将停止变得更好,通往AGI的进程将因某种原因停止。"
John类比道:"有点像制药公司,你开发一种药物,如果成功,你开发10种药物,如果成功,你开发100种药物。"
5、【3到6个玩家:AI的终局市场结构】
"终极市场格局是什么?是有几个大型玩家,还是我们会继续看到针对特定用例的新创业公司?"John问道。
"两三年前有很多不确定性。但我认为我们可能相对接近最终的玩家集合,如果不一定是最终的市场格局或玩家的角色。"Dario说。
"我会说大概有3到6个玩家,这取决于你如何计算。这些是能够构建前沿模型并有足够资本来自我引导的玩家。"
关于API业务的粘性问题,Dario有不同看法:"出于某种原因,有时人们想到API业务时会说:'哦,它不是很有粘性',或者'它会被商品化'。我经营API业务,我喜欢API业务。"
John补充:"不,不,完全正确。还有比我们两家都大的API业务。"
"我会再次指向云服务。那些是1000亿美元的API业务,当资本成本高且只有少数玩家时...相对于云服务,我们制造的东西差异化程度更高。这些模型有不同的个性。它们在与不同的人交谈。"
"我经常开的玩笑是,如果我坐在一个有10个人的房间里,这是否意味着我被商品化了?房间里还有9个人有类似的大脑,身高差不多,所以谁需要我?但我们都知道人类劳动不是这样运作的。"
6、【与国防部的2亿美元合同:"我们在赔钱"】
谈到Anthropic的业务选择,Dario提到了一个有争议的决定。
"我们与国防部和情报界有一个上限2亿美元的合同。人们说:'哦,天哪,Anthropic在出卖自己。'完全相反。从某个编程创业公司再获得2亿美元所需的努力比获得那个合同少一个数量级。"
"但你认为国防很有价值。"John说。
"我们这样做是因为我们想要保卫国家。我们在界限内做这件事。有些事情我们担心。我深深担心政府在国内方面的权力滥用。我们更多地考虑对外导向的方面。"
"这是我们优先考虑的事情的例子,我们认为是好的,不一定是感觉良好或人们认为外部反响会是积极的事情。我们实际上对某些事情有信念,无论如何都会去做。"
7、【"投资者说我疯了,然后我们做到了"】
Dario分享了Anthropic惊人增长背后的故事。
"2023年,我从未向机构投资者融过资,所以2023年初我们的收入是零,因为我们还没有发布产品。所以我在整理一些东西,我想:'哦,我认为我们第一年可能能获得1亿美元的收入。'"
"这导致一些投资者说:'这太疯狂了。这在资本主义历史上从未发生过。你失去了所有信誉。你只是在编造数字。再见,再见。'"
"然后我们实际上做到了。"
"第二年,我说:'我认为我们可以从1亿美元增长到10亿美元。'实际上,第一次做到后,人们认为这不那么疯狂了,但仍然经常被认为是疯狂的,然后我们又做到了。"
"所以有很多不同的未来。有一个是当事情达到一定规模时,曲线放缓,但有一个挑衅性的世界,指数继续,在两三年内,这些是世界上最大的企业。"
"你做出这个指数预测。听起来很疯狂。可能是疯狂的,但也可能不是疯狂的,因为那条趋势线以前就跟随过。"
8、【数据墙?"这只是RL的花哨说法"】
关于业界讨论的"数据墙"问题,Dario有不同看法。
"2023年,每个人都在谈论数据墙。这就是我们如何解决数据墙问题的方式吗?"John问道。
"人们在公开场合谈论事情,有时它们是谣言或推测或其他什么。我甚至不一定会假设存在数据墙。"
"使用强化学习的想法已经存在一段时间了。如果我们回到Google DeepMind用AlphaGo击败世界围棋冠军的时候,首先是强化学习。然后我们构建了这些语言模型,现在我们通过在语言模型之上放置强化学习来将两者结合在一起。"
"这就是所有思维链或推理的全部内容,它只是强化学习的花哨说法,其中强化学习环境是模型写一堆东西然后给出答案。除此之外没有更多的东西。它只是有一个花哨的名字。"
"我认为这些是学习的两种关键方式。我认为基础LLM训练是通过模仿学习,强化学习是通过试错学习。这是两种学习风格。如果我是个孩子,有两种学习方式。我看着父母说:'哦,他们做了什么',我试着学习他们做什么,或者我可以尝试世界并学习东西。"
9、【人才战争:有人去了Meta,然后又回来了】
"你在最近的采访中提到了价值1亿美元的秘密,只是几行代码。"John提到了AI行业的人才竞争。
Dario解释了Anthropic如何保护知识产权:"我们倾向于分隔信息。如果你与任何AI实验室交谈,这就是他们的运作方式。你只被告知你需要知道的东西。"
"但这可能与正常的硅谷文化截然不同,那里所有东西都在公司里飞来飞去。"John说。
"是的,我们实际上同时做到了这一点和拥有非常开放的文化。我对公司说的话,也许另一个人会用公关语言表达。但当有秘密时,我认为这实际上会让人们相信这是他们真正需要知道的东西。"
"最后,拥有更好的留存率和失去更少的人是这里最重要的事情之一。我们在所有AI公司中拥有最高的留存率。"
"如果你看看公开的去Meta超级智能实验室的人员名单,即使你按我们的规模标准化,也不多,许多人拒绝了他们。"
关于疯狂的1亿美元薪酬战,Dario说:"相对于其他公司,我们做得很好。我们甚至相对有优势。这是对使命的真正信念和对股权上升空间的信念的混合。Anthropic已经建立了履行承诺的声誉,在某些情况下,做出更少的承诺,但遵守我们做出的承诺。"
10、【"人工智能有生命力论"】
技术播客Dwarkesh在文章中提到,当前AI模型的根本问题是它们就像"五分钟前刚入职的超级聪明的虚拟同事",但永远停留在那个状态,不会随时间学习。
Dario认为这个问题正在被解决:"我在AI研究和技术方面看到的模式是,一次又一次地出现看似是墙的东西。几年前是'AI模型不能写出全局连贯的文本',现在它们显然可以了。"
他提到连续学习已经部分存在:"模型在上下文中学习。你与它们交谈,它们吸收上下文。最终,上下文将达到1亿个token,也许我们会以某种方式训练模型,使其专门用于在上下文中学习。你甚至可以在上下文期间更新模型的权重。"
在讨论AI的持续学习能力时,Dario提出了一个哲学类比。
"人们非常执着于相信存在某种根本性的墙,有些东西是不同的,某些东西是无法做到的。它让我想起了——"
"你认为这是一种深层的应对机制吗?"John问道。
"你知道它让我想起什么吗?19世纪的生命力论概念。这是人体和活着的有机体是由与无生命物质根本不同的材料制成的想法。我们现在科学地知道这不是真的,但这是人们非常想相信的东西,你的常识似乎表明了这一点。"
"我与桌子非常不同。我是由与金属或玻璃或其他什么非常不同的材料制成的,但当我们真正深入到基本单位时,当然,我们都是由相同的东西制成的。"
"但你认为人们现在对人性的根本性有这种现代生命力论概念,他们说:'哦,你知道,模型做不到那个。'我认为有某种倾向相信它。我认为与生命力论一样,解决方法是认识到无论心智由什么制成,心智就是心智。认知或感知的尊严或特殊性的概念,不是说它不特殊,而是它可以由任何东西制成。"
11、【2027年,AI帮你报税】
Dwarkesh Patel在他的博客中预测,到2028年,你可以把所有财务数据和邮件发给AI,让它帮你报税。
"可能比那更早。"Dario说,"我不知道是2026年还是2027年。其中一些是模型,主要是准确性。我认为模型今天可以做到这一点,但它会犯太多错误。"
"所以研究让模型检查自己的工作并减少错误的方法是一部分。也有界面部分,但如果需要那么长时间,我会感到惊讶。"
关于幻觉问题,Dario认为这已经得到了很大改善:"它们变得更好了,我认为人们也变得更习惯了。他们知道什么时候信任模型,什么时候不信任。模型也已经基于引用。我们在Claude.ai和Enterprise Claude中都做到了这一点。"
"我对幻觉等事情的看法一直是,有某类批评者指出模型奇怪或比人类做得差的地方,然后说:'看,它们根本不像我们',或者'它们永远不会达到那里。'"
"我基本上认为这是一个谬误。有一般智能的概念,但它由许多不同的东西组成,你可以简单地拥有大部分东西,在某些方面差得多,在其他方面好得多。"
12、【从研究员到CEO:"我对商业的兴趣来得太快了"】
"你开始是研究员,但现在你是公司的CEO,你在销售AI业务。你必须学习什么关于市场推广或与客户打交道的知识?"John问道。
"我创立公司不是因为我最初对销售或商业或任何这些感到兴奋。我看到了其他一些公司的运作方式,以及他们试图建立的东西的规模和重要性,我只是有点担心人员和动机可能不是最好的。"
"我知道这个领域会有许多玩家,但感觉至少有一个在我们做事方式上有强大指南针的玩家可能对生态系统产生积极影响。"
"当然,我和其他联合创始人必须学习如何思考商业和战略。我对商业方面非常自然地感兴趣。实际上,我对自己变得如此快速地感兴趣感到惊讶。"
"主要原因是我对作为我们客户的所有行业感到好奇。有点像云服务,也许像你的业务,我们服务的业务跨越每个可能的行业。所以你只是学习关于你从未想过的经济部分的这些东西。"
"即使在我名义上知道很多的领域。我曾经是生物学家,所以在某种程度上,我对制药业务了解很多,但我从未超越科学思考过它。我从未想过它的投资组合方面。我从未想过临床试验如何运作以及如何使它们更便宜。我从未详细思考过国防和情报业务。"
13、【AGI驱动的产品设计】
"实际上,产品方面是我最初更不情愿的一个。"Dario承认,"我觉得我对商业方面有自然的兴趣和好奇心,但是构建应用程序,不知何故,最初它从来不是吸引我的东西,即使在我创立公司之后。"
"但我认为最近,当我看到哪些产品成功了,哪些产品没有成功,我认为这个关于如何设计产品使它们成为我们所说的AGI驱动的想法。使产品的方向是持久的,并且是通往未来有用事物的桥梁。"
"我们都听说过包装公司或包装产品的想法。想法是你制作Claude N,有人制作一个基本上解决Claude N缺陷的产品,但然后你推出Claude N+1,它就吃掉了它。"
"我总是给出的建议,我认为所有AI公司的人都给出的建议是,不要做这样的东西。看到领域的方向,试着做一些互补的东西。"
我补充一下,对于这一点,OpenAI CEO 山姆·奥特曼也是一样的看法,不要做只是针对当前模型缺点的产品,很快模型就会在下一代解决这个Bug。
14、【"我们没有AI界面"】
"我们现在没有真正的AI用户界面?"John提出了一个尖锐的观察,"我们仍然在文本框中输入文本,字面上与1970年代的终端相同。我的意思是,圆角更多了。我们仍然对手动触发的语音伴侣模式说话,这与前变压器Siri相同。用户界面完全相同。"
"是的,是的,有些不太对劲。"Dario同意,"我基本上同意你的看法。"
"它让我想起了,你知道在互联网的早期,人们会制作这些看起来像在物理世界中的结构的网站。"
"拟物化设计?"John提供了术语。
"拟物化设计,是的。感觉这里正在发生一些这样的事情。"
"我要说的是,随着我们更多地转向智能体,我们将处于AI模型可以端到端地做某事的世界。就像,我们几乎与Claude实现了这一点。可以端到端地做某事并且大部分时间都做对。人类的主要工作是检查。或者有时检查。"
"但有趣的是,检查通常意味着真正深入了解发生了什么的细节。所以这里有某种阻抗不匹配,某些产品或界面是解决方案,你想要尽可能流畅的东西,只是去做某事,你不想大部分时间都要注意,但当出现问题时,你实际上可能需要相当参与。"
"我不觉得任何产品或界面现在都在这个原则上运作或处理这个问题。"
15、【开源的不同含义】
关于开源模型的竞争,Dario有独特的看法。
"开源在AI模型中的含义与在其他领域不同。出于这个原因,有些人称之为开放权重模型来区分。我认为主要区别是,如果你看到模型的权重并查看内部,你无法理解实际发生了什么。没有那种可组合性。"
"我无法读取源代码,我无法产生它的微不足道的不同版本。现在,Anthropic实际上正在研究机械可解释性,这允许你看到模型内部,所以我们实际上正在研究允许某些属性的东西,但我们还没有到那里。我们离那里还差得远。"
"从我们的角度来看,当新模型出来时,当竞争对手模型出来时,我们真的不考虑它是否是开放权重模型,我们考虑它是否是强大的模型。如果有人制作了一个在我们做的事情上很好的强大模型,那就是竞争,对我们不利,无论它是否是开放权重模型。两者之间没有巨大的区别。"
16、【保持AGI导向:每两周一次的愿景分享】
"Anthropic如何比其他组织更AGI导向?"John问道。
"每隔几周,我会站在组织面前,描述我的愿景。我认为其中一个目的是让人们专注于使命。"
"这是世界的奇怪状态,我总是表达对它的不确定性,但我说如果我要打赌,我会赌在一两年或三年内,我不知道确切多久,我们将拥有我所描述的数据中心里的天才之国。"
"这很奇怪。它将改变经济,它将加速科学的步伐。它将带来全球对齐和国家安全风险。它可能带来经济问题。上升空间是巨大的。破坏的潜力也是巨大的。"
"我认为我试图对抗的是加入的员工的想法,他们想:'哦,你知道,我在这个行业工作,我在这种公司工作,我要在AI公司工作,也许几年后,我会去这个'...这与以前发生的经历有根本的不同。"
"当我们的财务人员考虑财务预测时,他们理解这一点,不是肯定会有指数增长,但疯狂的结果是可能的。当我们的招聘人员认为他们想:'哦,是的,这种疯狂的薪酬事情可能会发生,因为'...当产品人员制作AGI驱动的产品时,当政策人员互动时,他们理解可能发生的事情的利害关系。"
17、【10%的经济增长 vs 安全监管】
"你谈到了AI驱动的10%年度经济增长的潜力。这是否意味着当我们谈论AI风险时,通常是AI的伤害和误用,但最大的AI风险不是我们轻微地错误监管它或减慢进展,因此错过了很多人类福祉?"John问道。
"我有家人死于几年后被治愈的疾病的经历,所以我真正理解进展不够快的利害关系。"Dario说。
"我会说AI的一些危险有可能严重破坏社会稳定或威胁人类或文明。所以我认为我们不想对那种风险水平冒闲置的机会。"
"现在,我根本不是停止技术、暂停技术的倡导者。我认为出于许多原因,我认为那只是...这是不可能的。我们有地缘政治对手。他们不会不制造技术。"
"但我要说的是,与其考虑减慢它与以最大速度前进,是否有方法可以引入安全保障措施,以不减慢技术或只减慢一点的方式思考经济?"
"如果我们可以有9%的经济增长而不是10%的经济增长,并为所有这些风险购买保险。我认为这就是权衡实际的样子。"
"正是因为AI是一种有潜力如此快速发展、解决如此多问题的技术,我认为更大的风险是事情可能会过热。所以我基本上想要...我不想停止反应。我想要聚焦它。这就是我的想法。"
最后,John问到了Dario个人如何使用AI。
"我写很多东西。也许我对自己的写作太自豪了。我使用Claude生成很多想法。我把它用作研究。但到目前为止,我自己亲手写作。"
"Claude实际上可能比其他的更接近,但它还没有到那里。我会对它用于商务邮件感到舒适,但如果我在写一篇文章或我真正想要做对的东西,它还不太符合要求。但也许在一年左右就会到那里。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。