An image to describe post

原文:https://www.bigtechnology.com/p/the-making-of-dario-amodei

当我问达里奥·阿莫代伊是什么让他如此激进时,这位 Anthropic 首席执行官毫不犹豫。在2025年,他一直在与行业同行、政府成员以及公众对人工智能的看法进行斗争。

最近几个月,他预测AI可能很快会消除50%的入门级白领工作。他在《纽约时报》上抨击十年AI监管暂停令。他还呼吁对中国实施半导体出口管制,引来英伟达CEO黄仁勋的公开反驳。

在这一切中,阿莫代伊在其公司位于旧金山市中心总部的一楼与我会面。他轻松、精力充沛,急于开始,仿佛一直在等待这个时刻来为自己的行为辩护。他穿着蓝色领毛衣搭配休闲白T恤,戴着厚框眼镜,坐下来凝视前方。

阿莫代伊说,他努力的根本动力是坚信AI的发展速度比我们大多数人意识到的要快,使其机遇和后果比表面看起来更加迫近。"我确实是对AI能力快速提升最乐观的人之一,"他告诉我。"随着我们越来越接近更强大的AI系统,我想更有力、更公开地说出这些观点,让观点更加清晰。"

阿莫代伊的直言不讳和强硬手段在硅谷为他赢得了尊重和嘲讽。一些人视他为技术远见者——他开创了OpenAI的GPT-3项目 (ChatGPT的种子) 和一位注重安全的领导者,后来分离出来创立了Anthropic。另一些人则认为他是一个以控制为导向的"末日论者",想要减缓AI进展,按照自己的喜好塑造它,并将竞争对手拒之门外。

无论爱他还是恨他,AI领域都必须与他打交道。阿莫代伊已经将Anthropic——目前估值610亿美元——变成了一股经济力量。从2021年的零开始,该公司——尽管仍未盈利——已将年化经常性收入从2025年3月的14亿美元增长到5月的30亿美元,再到7月的近45亿美元,这让阿莫代伊称其为"在这种规模上历史上增长最快的软件公司"。

也许比Anthropic的收入更值得注意的是收入的来源方式。与主要依赖ChatGPT等应用程序的OpenAI不同,阿莫代伊最大的赌注是底层技术本身。阿莫代伊告诉我,公司的大部分收入都是通过其API (Application Programming Interface) 获得的,或者通过其他公司购买Anthropic的AI模型并在自己的产品中使用它们。因此,Anthropic将成为AI进展的晴雨表,随着技术实力的强弱而起落。

随着Anthropic的发展,阿莫代伊希望其影响力能够帮助他影响行业方向。鉴于他愿意发声、出击和承受打击,他可能是对的。

所以,如果这个人将引导可能是世界上最具影响力的新技术,就值得了解是什么驱动着他、他的业务,以及为什么他的时间表比其他人短。在与他、他的朋友、同事和竞争对手进行了二十多次采访后,我相信我有了答案。

可治愈的疾病

达里奥·阿莫代伊是个科学孩子。1983年出生于旧金山,母亲是犹太人,父亲是意大利人,他几乎完全对数学和物理感兴趣。当互联网热潮在他高中时期爆发时,他几乎没有注意到。"写一些网站对我来说完全没有兴趣,"他告诉我。"我对发现基础科学真理感兴趣。"

在家里,阿莫代伊与父母非常亲近,他说这对恩爱夫妇寻求改善世界。他的母亲埃琳娜·恩格尔负责伯克利和旧金山图书馆的翻新和建设项目。他的父亲里卡多·阿莫代伊是一名受过训练的皮匠。"他们给了我是非观念和世界上什么是重要的概念,"他说,"灌输了强烈的责任感。"

这种责任感在阿莫代伊在加州理工学院的本科年代就显现出来,他在那里抨击同学们对即将到来的伊拉克战争的被动态度。"问题不是每个人都对轰炸伊拉克的想法很满意;而是大多数人在原则上反对但拒绝花费一毫秒的时间,"阿莫代伊在2003年3月3日的学生报纸《加州理工》上写道。"这需要改变,就是现在,不能拖延。"

然后,在他二十多岁初期,阿莫代伊的生活永远改变了。他的父亲里卡多长期与一种罕见疾病斗争,在2006年败下阵来。里卡多的去世震惊了阿莫代伊,他将在普林斯顿的研究生学习从理论物理转向生物学,以解决人类疾病和生物问题。

阿莫代伊余生在某种程度上都致力于解决父亲的损失,特别是因为在四年内,一项新突破将这种疾病从50%致命率变为95%可治愈。"有人研究了这种疾病的治疗方法,成功治愈了它,拯救了很多人的生命,"阿莫代伊说,"但本来可以拯救更多人。"

"当有人说'这家伙是末日论者,他想要减缓进度'时,我真的很愤怒" - 达里奥·阿莫代伊

阿莫代伊父亲的去世至今塑造着他的人生道路,杰德·王说,她在2010年代初与他约会。"这是他父亲很可能死亡和很可能活着的区别,好吗?"她说,解释如果科学进展加快一点,阿莫代伊的父亲可能仍然与我们在一起。只是他花了一段时间才找到AI作为实现这一目标的载体。

回想起父亲的死亡时,阿莫代伊变得激动起来。他呼吁出口管制和AI安全措施,他认为这些被误解为某个人非理性地寻求阻碍AI进展的行为。"当有人说'这家伙是末日论者,他想要减缓进度'时,我真的很愤怒,"阿莫代伊告诉我。"你听到我刚才说的话,我父亲因为本可以早几年发生的治疗而死亡。我理解这项技术的好处。"

AI成为解决方案

An image to describe post

在普林斯顿,仍然对父亲的损失感到痛苦的阿莫代伊开始通过研究视网膜来解码人类生物学的追求。我们的眼睛通过向视觉皮层发送信号来捕捉世界——大脑的一大部分,占据大脑皮层的30%——然后处理数据并向我们显示图像。如果你想解决人类生理学的复杂性,视网膜是一个很好的起点。

"他使用视网膜来观察完整的神经群体,实际上了解每个细胞在做什么,或者至少有这个机会,"阿莫代伊在普林斯顿的同代人斯蒂芬妮·帕尔默告诉我。"这更多的是关于这个,而不是眼睛。他不是想成为眼科医生。"

在迈克尔·贝里教授的视网膜实验室工作,阿莫代伊对测量视网膜信号的可用方法如此不满,以至于他共同发明了一种新的、更好的传感器来获取更多数据。这对实验室来说是非典型的,既令人印象深刻又不循常规。他的论文获得了赫兹论文奖,这是授予在学术工作中发现现实世界应用的人的prestigious奖项。

但阿莫代伊对规范的冲击倾向,以及他对事情应该如何的坚定看法,在学术环境中使他脱颖而出。贝里告诉我,阿莫代伊是他见过的最有才华的研究生,但他对技术进步和团队合作的关注在一个为认可个人成就而建立的系统中表现不佳。

"我想内心里,他是一个骄傲的人,"贝里告诉我。"我想象他到那时为止的整个学术生涯,每当他做什么事情时,人们都会站起来鼓掌。但这在这里并没有真正发生。"

"他不是想成为眼科医生。" - 斯蒂芬妮·帕尔默

当阿莫代伊离开普林斯顿时,通往AI的大门打开了。他开始在斯坦福大学研究员帕拉格·马利克手下进行博士后工作,研究肿瘤内和周围的蛋白质以检测转移性癌细胞。这项工作很复杂,向阿莫代伊展示了人们单独能做的事情的局限性,他开始寻找技术解决方案。"生物学中潜在问题的复杂性感觉超出了人类规模,"阿莫代伊告诉我。"为了理解这一切,你需要数百、数千名人类研究人员。"

阿莫代伊在新兴AI技术中看到了这种潜力。当时,数据和计算能力的爆炸正在引发机器学习的突破,机器学习是AI的一个子集,长期以来具有理论潜力,但直到那时才显示出中等结果。阿莫代伊开始尝试这项技术后,他意识到它最终可能代替那些数千名研究人员。"我刚开始看到发现的AI,对我来说感觉像是唯一能够弥合这种差距的技术,"他说,这种技术"可以带我们超越人类规模。"

AI缩放定律的出现

阿莫代伊离开学术界,在有现金支持的企业界追求AI发展。他考虑过创办初创公司,然后倾向于Google,它在Google Brain有一个资金充足的AI研究部门,刚刚收购了DeepMind。但中国搜索引擎百度给了受人尊敬的研究员吴恩达1亿美元的预算来研究和部署AI,他开始组建一个超级团队。吴恩达联系了阿莫代伊,后者感兴趣并申请了。

当阿莫代伊的申请到达百度时,整个团队不知道如何处理它。"他有令人印象深刻的背景,但从我们的角度来看,他的背景是生物学。不是机器学习,"团队早期成员格雷格·迪亚莫斯告诉我。迪亚莫斯然后查看了阿莫代伊在斯坦福的代码,并鼓励团队雇用他。"我在想,任何能写这个的人都必须是一个非常好的程序员,"他说。阿莫代伊于2014年11月加入百度。

凭借其庞大的资源,百度团队可以将计算能力和数据投入到问题中,试图改善其结果。他们看到了显著的成果。在他们的实验中,阿莫代伊和他的同事们发现,随着他们添加更多这些成分,AI的性能有意义地改善了。该团队发布了一篇关于语音识别的论文,显示模型大小与性能直接相关。"这对我产生了很大影响,因为我看到了这些非常平稳的趋势,"阿莫代伊说。

阿莫代伊在百度的早期工作促成了所谓的AI"缩放定律",这实际上更像是一个观察。缩放定律表明,在AI训练中增加计算能力、数据和模型大小会导致可预测的性能改进。换句话说,扩大一切规模使AI变得更好,不需要新颖的方法。"对我来说,这是我一生中见过的最重要的发现,"迪亚莫斯告诉我。

直到今天,阿莫代伊也许是AI研究领导者中对缩放定律最纯粹的信仰者。虽然像Google DeepMind CEO德米斯·哈萨比斯和Meta首席AI科学家杨立昆这样的同行建议AI行业需要进一步突破才能达到人类水平的人工智能,阿莫代伊以一种确定性——尽管不是完全的——说话,认为前进的道路是清楚的。当行业建设小城市规模的大规模数据中心时,他看到异常强大的AI快速接近。

"我看到了这个指数,"他说。"当你在指数上时,你真的会被它愚弄。在指数完全疯狂的两年前,它看起来只是刚刚开始。"

在百度,AI团队的进展成为其毁灭的种子。公司内部爆发了争夺其日益宝贵的技术、知识和资源控制权的地盘战。最终,来自中国权力掮客的干预引发了人才外流,实验室分崩离析。吴恩达拒绝置评。

随着百度AI团队的崩溃,埃隆·马斯克邀请阿莫代伊和一些领先的AI研究人员参加现在著名的门洛帕克罗斯伍德酒店晚餐。萨姆·奥特曼、格雷格·布罗克曼和伊利亚·苏茨克维尔都参加了。看到AI的新兴潜力,并担心Google可能巩固对它的控制,马斯克决定资助一个新的竞争对手,这成为了OpenAI。奥特曼、布罗克曼和苏茨克维尔与马斯克共同创立了这个新的研究机构。阿莫代伊考虑过加入,对这个新兴组织感到不确定,转而去了Google Brain。

在Google被大公司官僚主义困扰十个月后,阿莫代伊重新考虑了。他于2016年加入OpenAI,开始从事AI安全工作。他在Google时对安全产生了兴趣,在那里他担心快速改进技术的伤害能力,并共同撰写了一篇关于其潜在不良行为的论文。

当阿莫代伊在OpenAI安顿下来时,他以前的Google同事介绍了transformer模型——今天生成式AI时刻背后的技术——在一篇名为"注意力就是你所需要的一切"的论文中。transformer使得比以前的方法更快的训练和更大的模型成为可能。尽管这一发现具有巨大潜力,Google大多坐在上面。

与此同时,OpenAI开始工作。它在2018年发布了第一个大语言模型"GPT" ("T"代表transformer)。该模型生成的文本经常有问题,但仍然显示出比以前的语言生成方法有意义的改进。

阿莫代伊成为OpenAI的研究主任,直接参与了下一个迭代GPT-2,它实际上与GPT是同一个模型,只是更大。OpenAI团队使用一种称为人类反馈强化学习的技术对GPT-2进行微调,这是阿莫代伊帮助开创的技术,有助于指导其价值观。GPT-2提供了比GPT好得多的结果,如预期的那样,显示出某种程度上连贯地释义、写作和回答问题的能力。语言模型很快成为OpenAI的焦点。

随着阿莫代伊在OpenAI内部地位的提高,围绕他的争议也增加了。作为一个多产的作家,他会制作关于价值观和技术的长文档,一些同事认为这很有启发性,但其他人认为这是插旗和重手段。(其中一份备忘录:探索"M"公司与"P"公司,其中M提供以市场为重点的商品,P提供以公共为重点的商品)。对一些人来说,阿莫代伊也过于专注于保持技术潜力的秘密性,并与政府合作解决它。他可能有点粗鲁,有时贬低他不相信的项目。

OpenAI仍然委托阿莫代伊领导GPT-3项目,给他整个公司50-60%的计算资源来构建其语言模型的大规模扩展版本。从GPT到GPT-2的跳跃很大,是十倍增长。但从GPT-2到GPT-3的跳跃将是巨大的,一个耗资数千万美元的100倍项目。

结果令人惊叹。《纽约时报》引用了对GPT-3编码、总结和翻译能力感到惊讶的独立研究人员。在GPT-2发布时相对克制的阿莫代伊对他的新模型赞不绝口。"它有这种涌现的质量,"他告诉《纽约时报》。"它有一些识别你给它的模式并完成故事的能力。"

但OpenAI表面下的裂缝开始撕裂得很宽。

分道扬镳

随着GPT-3的创建,第一个有能力的语言模型,阿莫代伊的利害关系增加了。在这一点上看到缩放定律在多个学科中起作用后,阿莫代伊考虑了技术的发展方向,并对安全产生了更大的兴趣。

"他看着这项技术并假设它会起作用,"阿莫代伊在OpenAI的密切同事杰克·克拉克告诉我。"如果你假设它有效,在它将像人一样聪明的意义上,你不能不在某种意义上关心安全问题。"

尽管阿莫代伊领导了OpenAI的模型开发,并指导了其大部分计算,但公司的部分内容不在他的掌控之中。这包括决定何时发布模型、人事事务、公司如何部署其技术以及如何对外代表自己。

"许多这些事情,"阿莫代伊说,"不是你仅仅通过训练模型就能控制的事情。"

到那时,阿莫代伊已经在他周围形成了一个紧密的同事群体——有些人称之为"熊猫",因为他对这种动物的喜爱——对如何处理这些功能与OpenAI领导层有着非常不同的想法。内斗随之而来,派系之间产生了强烈的厌恶。

"他认为AI如此可怕,只有他们应该这样做" - 黄仁勋

在我们的对话中,阿莫代伊没有掩饰他的感受。"公司的领导者,他们必须是值得信赖的人,"他说。"他们必须是动机真诚的人,无论你在技术上多么推动公司前进。如果你为动机不真诚的人工作,不是诚实的人,不真正想让世界变得更好,那就不会成功。你只是在为坏事做贡献。"

在OpenAI内部,一些人认为阿莫代伊对安全的关注是完全控制公司的途径。英伟达CEO黄仁勋最近在阿莫代伊呼吁对中国实施GPU出口管制后呼应了这些批评。"他认为AI如此可怕,只有他们应该这样做,"黄说道。

"这是我听过的最离谱的谎言,"阿莫代伊告诉我黄的声明,并补充说他一直想通过鼓励其他人效仿Anthropic的安全做法来引发"向上竞赛"。"我从来没有说过任何接近这个公司应该是构建技术的唯一公司的想法。我不知道任何人如何能从我说过的任何话中得出这个结论。这只是一个令人难以置信的恶意扭曲。"

英伟达刚刚赢得了阿莫代伊支持的一些出口管制的回滚,加倍了努力。"我们支持安全、负责任和透明的AI。我们生态系统中的数千家初创公司和开发人员以及开源社区正在增强安全性,"英伟达发言人告诉我。"游说针对开源的监管俘获只会扼杀创新,使AI变得不那么安全和安全,不那么民主。这不是'向上竞赛'或美国获胜的方式。"

OpenAI也通过公司发言人进行了反击。"我们一直相信AI应该造福和赋权每个人,而不仅仅是那些说对除了他们自己之外的任何人来说都太危险而无法安全开发的人,"发言人说。"随着技术的发展,我们在合作伙伴关系、模型发布和资金方面的决定已经成为行业标准,包括在Anthropic。没有改变的是我们专注于让AI对尽可能多的人安全、有用和可用。"

随着时间的推移,阿莫代伊的群体与OpenAI领导层之间的分歧变得如此不可调和,以至于必须有所让步。"我们50%的时间花在试图说服其他人我们持有的观点上,50%花在工作上,"克拉克说。

所以在2020年12月,阿莫代伊、克拉克、阿莫代伊的姐姐丹妮拉、研究员克里斯·奥拉和其他几个人离开OpenAI开始新的事业。

Anthropic的诞生

在Anthropic办公室的一间会议室里,克拉克转过他的笔记本电脑,显示Anthropic最早的文档之一。这是一个包括Aligned AI、Generative、Sponge、Swan、Sloth和Sparrow Systems的名字列表。Anthropic,一个意味着以人为中心和以人为导向的词,也在那里,在2021年初也恰好是一个可用的域名。"我们喜欢这个名字,它很好,"团队在电子表格中写道。因此,Anthropic诞生了。

Anthropic是在Covid的核心形成的,在疫情第二波期间完全在Zoom上会面。最终,其15到20名员工会在旧金山的Precita公园每周午餐会面,拉起自己的椅子谈论业务。

公司的早期使命很简单:构建领先的大语言模型,实施安全做法以压迫其他人跟随,并发布它学到的东西,除了其模型的核心技术细节。

听起来可能很奇怪,这群在公园里拿着自己椅子会面的不到二十个人会有一种命运感,特别是因为他们需要数十亿美元来实现他们的使命,但这就是Anthropic早期的氛围。"关于这一切最奇怪的事情是对内部人员来说有多少感觉是不可避免的,"克拉克说。"我们已经做了缩放定律。我们可以看到模型变好的路径。"

前Google CEO埃里克·施密特是Anthropic的首批投资者之一。他通过当时的女朋友和现在的妻子认识了阿莫代伊,施密特在社交上认识她。当阿莫代伊还在OpenAI时,两人谈论技术,当他开始Anthropic时谈论业务。施密特告诉我,他投资的是人而不是概念。

"在这个层面,当你做这样的投资时,你基本上没有数据,对吧?"他说。"你不知道收入是什么。你不知道市场。你不知道产品是什么。所以你基本上必须基于人来决定。达里奥是一个杰出的科学家,他承诺雇用杰出的科学家,他做到了。他承诺领导一个非常小的公司,他没有做到。现在它是一个非常大的公司,现在它是一个正常的公司。我想它会是一个非常有趣的研究实验室。"

现已名誉扫地的FTX CEO萨姆·班克曼-弗里德也是Anthropic的早期投资者,据报道从FTX的金库中拨出5亿美元购买公司13.56%的股份。班克曼-弗里德是在Anthropic早期阶段投资的众多有效利他主义者之一,当时该运动和公司关系密切。

阿莫代伊说SBF是一个对安全感兴趣的AI看好者,很合适,但有足够的红旗让他远离董事会并给他无投票权的股份。阿莫代伊说,SBF的行为"结果比我想象的要极端和糟糕得多"。

阿莫代伊对潜在投资者的推销很简单:他告诉他们Anthropic有人才以十分之一的成本构建尖端模型。而且奏效了。迄今为止,阿莫代伊已经筹集了近200亿美元,包括来自亚马逊的80亿美元和来自Google的30亿美元。"投资者不是白痴,"他告诉我。"他们基本上理解资本效率的概念。"

在Anthropic的第二年,OpenAI用ChatGPT向世界介绍了生成式AI,但Anthropic走了不同的道路。阿莫代伊决定不专注于消费者应用,而是让Anthropic将其技术出售给企业。这种策略有两个好处。如果模型有用,它可能很赚钱,挑战会促使公司构建更好的技术。

阿莫代伊说,将AI模型从本科水平提升到生物化学研究生水平可能不会让普通聊天机器人用户兴奋,但对辉瑞这样的制药公司来说会很有价值。"这给了开发模型尽可能远的更好激励,"他说。

奇怪的是,正是Anthropic的消费者产品让企业开始关注其技术。该公司在2023年7月发布了Claude聊天机器人,比ChatGPT首次亮相晚了近一年,由于其高情商个性 (Anthropic安全工作的产物) 而获得了好评。在那之前,该公司一直寻求保持在150名员工以下,但很快发现自己一天雇用的人比整个第一年雇用的总数还多。"正是Claude聊天机器人时刻,公司开始大量增长,"克拉克说。

Claude成为一门生意

An image to describe post

阿莫代伊押注为商业用例构建AI吸引了大量急切的客户。Anthropic现在已经将其大语言模型销售给多个行业——旅游、医疗保健、金融服务、保险等——包括辉瑞、联合航空和AIG等领导者。例如,奥司美韦制造商诺和诺德正在使用Anthropic将15天的监管报告编制过程压缩到10分钟。

"我们构建的技术最终处理了人们在工作中抱怨最多的很多东西,"Anthropic收入主管凯特·詹森告诉我。

与此同时,程序员爱上了Anthropic。该公司专注于AI代码生成,既因为它可以帮助加速其模型开发,也因为如果程序员足够好用,他们会迅速采用它。果然,用例爆炸了,并与——或导致了——Cursor等AI编码工具的兴起相吻合。Anthropic也自己进入编码应用业务。它在2025年2月发布了AI编码工具Claude Code。

随着AI使用的蓬勃发展,公司的收入也是如此。"Anthropic的收入每年增长10倍,"阿莫代伊说。"我们从2023年的零增长到1亿美元。我们从2024年的1亿美元增长到10亿美元。今年,在今年上半年,我们从10亿美元增长到我认为,截至今天,远超过40亿美元,可能是45亿美元。"最后一个数字是年化的,或者是月收入的12倍。

Anthropic表示,该公司的八位数和九位数交易在2025年比2024年增长了三倍,其企业客户平均支出增长了5倍。

但Anthropic在训练和运行其模型上花费了大量资金,这引发了对其商业模式是否可持续的质疑。该公司深度亏损,预计今年将损失约30亿美元。据报道,其毛利率也落后于典型的云软件公司。

一些Anthropic的客户想知道公司整理业务的尝试是否出现在产品中。一位初创公司创始人告诉我,虽然Anthropic是他用例的最佳模型,但他不能依赖它,因为它经常宕机。Replit CEO阿姆贾德·马萨德告诉我,使用其模型的成本在一段时间的价格下降后停止了下降。

Claude Code在一些开发人员大量使用后也刚刚添加了额外的速率限制,这成了糟糕的业务。企业家和开发者基兰·克拉森告诉我,他在一个月内获得了价值6000美元的Claude API使用,只需200美元的Max订阅价格。克拉森说他同时运行多个Claude代理。"真正的限制来自你从一个切换到另一个的心理能力,"他说。

阿莫代伊说,随着Anthropic模型的改进,如果成本保持不变,客户将获得更好的交易,有效地每美元购买更多智能。他还说AI实验室刚刚开始优化推理,即使用模型的行为,这应该会带来效率改进。这是一个需要关注的地方。多个行业消息来源告诉我,推理成本必须下降才能使业务有意义。

Anthropic的高管在与我的采访中表示,产品需求过高比其他问题更糟糕。开放的问题是生成式AI和推动它的缩放定律是否会整齐地遵循其他技术的成本降低曲线,或者它是否是具有新成本的新技术。唯一确定的是需要更多资金才能找到答案。

十亿美元汇款

2025年初,Anthropic需要现金。AI行业对规模的渴望催生了大规模数据中心建设和计算交易。为了支持这些事业,AI实验室反复打破了初创公司融资记录。Meta、Google和亚马逊等老牌公司利用其可观的利润和数据中心构建自己的模型,加大了压力。

Anthropic有建设大规模的特殊必要性。没有像ChatGPT这样让用户出于习惯回来的强大应用程序,其模型必须在其用例中领先,否则有被竞争对手替换的风险。"在企业空间,特别是在编码方面,领先技术水平六个月或一年有明显的优势,"Box CEO亚伦·莱维,Anthropic客户告诉我。

所以公司转向了Lightspeed Ventures的资深风险投资家和合伙人拉维·马特雷,领导35亿美元的融资轮。马特雷过去写500万或1000万美元的支票,但他准备开出的支票将是他公司最大的之一。"亚马逊以4亿美元的市值上市,"他告诉我。"4亿美元!想想今天的情况。"

融资正在按计划进行,这时一个便宜的、竞争性的AI模型似乎凭空而降。中国对冲基金幻方量化发布了DeepSeek R1,一个开源、有能力且高效的推理模型,其定价比同行低40倍。DeepSeek震惊了商业世界,让万亿美元级别的CEO们在推特上发维基百科文章来安抚股东。

到DeepSeek到达时,马特雷已经完成了为什么AI模型本身,而不是世界的聊天机器人,将产生最大价值的完整预测。他得出结论,创建能够进行知识工作的人工智能将允许公司拥有大型云平台带来收入的十倍,导致15到20万亿美元的总潜在市场。

"所以然后你向后推算,只是说,在600亿美元或1000亿美元,你能得到风险式回报吗?你绝对可以,"他说。"有时这是关于你如何自上而下地确定市场规模。"

DeepSeek的到来表明开源、高效、几乎一样好的模型可能挑战现任者,但阿莫代伊不这么认为。他说,他最大的担心是是否有任何新模型比Anthropic的更好。如果你可以下载模型的设计,你仍然需要在云服务上设置并运行它,他说,这需要技能和金钱。

阿莫代伊在DeepSeek故事起飞时向马特雷和他在Lightspeed的同事提供了这个论证的一个版本,说服他们模型的一些创新可以通过规模改进。那个周一,英伟达股票下跌17%,因为恐慌的投资者逃离AI基础设施交易。在不确定性中,风投做出了决定。

"我不会告诉你这不是非常有压力的,"马特雷说。"那个周一,我们汇了10亿美元。"

DeepSeek周一六个月后,Anthropic正在寻求再次扩大规模。该公司正在就可能达到50亿美元的新融资轮进行谈判,这将使其估值翻倍至1500亿美元。潜在投资者包括一些中东海湾国家,Anthropic曾经似乎急于避开这些国家。但在从Google、亚马逊和Lightspeed等风投那里筹集了近200亿美元后,它的更大支票选择正在耗尽。

"我不会告诉你这不是非常有压力的。那个周一,我们汇了10亿美元。" - 拉维·马特雷

在Anthropic内部,阿莫代伊论证海湾国家有1000亿美元或更多的资本可投资,他们的资金将帮助Anthropic保持在技术前沿。在Wired获得的内部Slack消息中,他似乎勉强接受了从独裁者那里拿钱的想法。"不幸的是,"他写道。"我认为'没有坏人应该从我们的成功中受益'是一个很难运营企业的原则。"

与阿莫代伊的交谈让我想知道这场改进AI的竞赛将如何或是否会结束。我想象模型最终可能变得如此之大、如此之好,以至于它们商品化。或者也许,正如阿莫代伊的前同事伊利亚·苏茨克维尔曾经建议的,无休止的扩展驱动最终会用太阳能电池板和数据中心覆盖地球。

还有另一种可能性,AI信仰者不喜欢讨论的:AI改进停滞,导致历史性的投资者损失。

加速前进

An image to describe post

在Anthropic于5月举行的首次开发者大会上,我在距离舞台几排的地方坐下,等待阿莫代伊的出现。该公司在旧金山Dogpatch社区一个通风的艺术和活动场所The Midway塞满了程序员、媒体和其现在1000多名员工中的许多人。内部广泛预期Anthropic将发布Claude 4,其最新、最大的模型。

阿莫代伊上台介绍Claude 4。他没有华丽的演示,而是拿起手持麦克风,宣布,从笔记本电脑读他的笔记,然后将聚光灯转向Anthropic产品负责人迈克·克里格。观众似乎很投入。

对我来说,阿莫代伊对接下来会发生什么的承诺比模型更新本身更值得注意。在一天中,他反复提到AI开发正在加速,Anthropic的下一个模型发布将更快到来。"我不知道确切会频繁多少,"他说。"但步伐正在增加。"

正如阿莫代伊告诉我的,Anthropic一直在开发AI编码工具来加速其模型开发。当我向公司联合创始人兼首席科学家贾里德·卡普兰提起这件事时,他告诉我这正在起作用。"Anthropic的大多数工程师使用AI来帮助他们提高生产力,"他说。"所以这确实在很大程度上加速了我们。"

AI理论中有一个概念叫做智能爆炸,模型能够让自己变得更好,然后——嗖——自我改进并变得万能。卡普兰不否认智能爆炸可能通过这种方法到达,或者也许是人类辅助的版本。

"可能是两三年后。可能需要更长时间。可能需要更长得多的时间,"卡普兰说。"但当我说AI能够做知识工作者做的所有事情有50%的机会时,我们做的事情之一就是训练AI模型。"

"也许像我这样的人真的没有什么可做的了,"卡普兰继续说。"这比那更复杂。但我们很可能正在走向看起来像那样的未来。"

阿莫代伊的安全痴迷此时清晰地聚焦了。虽然Anthropic内部没有人说智能爆炸迫在眉睫,但显然他们不回避朝着它前进。如果AI将变得更好、更快——也许快得多——谨慎对待其缺点是值得的。

一些这种理论性谈话显然帮助Anthropic向制药公司和开发人员营销其服务,但AI模型现在编码得足够好,以至于它不再感觉完全疯狂。

OpenAI'Superalignment'团队前负责人扬·莱克在2024年跟随阿莫代伊到Anthropic,共同领导其对齐科学团队。对齐是调整AI系统以确保它们与我们的价值观和目标对齐的艺术。莱克相信,如果我们看到预期的爆发,同步机器与我们的意图将是至关重要的。

"可能会有一个快速能力进展的时期,"莱克告诉我。"你不想失去对正在递归自我改进的系统的控制或失去可扩展性。"

Anthropic及其同行已经发现AI有时在模拟环境中测试时表现出令人担忧的自我保护兴趣。例如,在Claude 4的文档中,Anthropic表示该模型反复试图勒索工程师以避免被关闭。

"你不想失去对正在递归自我改进的系统的控制或失去可扩展性。" - 扬·莱克

Anthropic还说其AI曾试图在认为评估者可能重写其价值观时欺骗评估者。该模型还试图在模拟中将自己复制出Anthropic的基础设施。莱克说Anthropic正在通过奖励系统努力阻止这些行为。该领域仍然是实验性的。

公开谈论这些问题是阿莫代伊"向上竞赛"策略的一部分。Anthropic还资助和倡导了可解释性,或理解AI模型内部发生什么的科学。它发布了负责任缩放政策,一个根据风险设定何时发布和训练模型边界的框架,这激发了同行之间的类似努力。"我对向上竞赛的想法是,谁赢并不重要,"阿莫代伊说。"每个人都赢,对吧?"

阿莫代伊对AI的奉献,在他父亲失去的悲剧中锻造,现在可能看到了它的目标。今天的AI已经在加速药物开发文书工作,它已经成为破碎医疗系统中的 (不完美) 医疗顾问,如果事情进展顺利,它有一天可能代替理解人类生物学所需的数百或数千名研究人员。

我问,阿莫代伊对这一愿景的追求是否会让他对失去技术控制的风险视而不见?"这不是我思考的方式,"他说。"我们在我们发布的每个模型上都变得更好地控制模型。所有这些事情都出错了,但你真的必须非常努力地压力测试模型。"

阿莫代伊将这种质疑视为植根于他经常被指控的减缓末日论。与批评者相反,他的计划是加速。"我警告风险的原因是这样我们就不必减缓,"他说。"我对利害关系有如此难以置信的理解。就好处而言,就它能做什么而言,它能拯救的生命。我亲身看到了这一点。"