共计 9357 个字符,预计需要花费 24 分钟才能阅读完成。
抗衡DeepSeek,年收入实现十倍飞跃。
作者 | 江宇
编辑 | 漠影
智东西8月2日报道,近日,Anthropic的联合创始人兼首席执行官达里奥·阿莫代伊(Dario Amodei)在位于旧金山的总部接受了媒体采访。
作为近年来AI领域备受争议的技术领袖,他对自己在2025年所引发的风波进行了全面回应——他曾明确预测AI将在不久的将来取代50%的初级白领职位,并反对“暂停AI监管十年”的提议,还呼吁对中国实施更严格的芯片出口管控,因而引发行业内的激烈讨论。
外界普遍认为他是散布风险的“末日主义者”,是阻碍AI开放发展的“控制派”;而支持者则将他视为为AI发展踩下“安全刹车”的少数理性声音,认为他在努力改变行业的未来。
面对重重争议,阿莫代伊罕见地阐述了他为何选择高调发声。他坦诚地表示,推动他的原因是一个越来越清晰的判断:AI能力的爆发远比人们预期的更快且更不可控。“我确实是对AI能力提升最乐观的人之一,”他指出,“但随着我们接近强大的AI系统,我越发意识到有必要以最明确、坚定的态度告诉大家:它真的来了。”
如果这位曾从事理论物理的科学家将塑造下一代最具影响力的技术,那么我们有必要弄明白他的判断基础是什么?商业逻辑如何?又是怎样促使Anthropic如此迅速发展的呢?
以下内容是智东西基于Big Technology的报道整理而成,为了提高可读性,部分内容在不改变原意的情况下进行了调整。
01.
AI安全领域的先锋人物
阿莫代伊如何在硅谷引发争议
阿莫代伊的直言不讳和张扬风格在硅谷引发了截然不同的评价。
一方面,他被视为OpenAI GPT-3项目(即ChatGPT的前身)的重要推动者,同时也是出于AI安全考虑而创办Anthropic的前瞻性技术领袖;另一方面,有人批评他为“控制狂”或“末日论者”,认为他试图减缓AI的发展进程,并用自己的价值观重塑整个行业。
无论褒贬如何,阿莫代伊已成为当前AI行业不可忽视的一部分。
目前,Anthropic的估值已达到610亿美元(约合人民币4453亿元)。阿莫代伊表示:“我们在2021年初几乎是从零起步,到2025年3月实现年化收入14亿美元(约合人民币102.2亿元),5月增至30亿美元(约合人民币219亿元),7月进一步逼近45亿美元(约合人民币328.5亿元)。从这个角度来看,我们可能已经是历史上增长最快的软件公司之一。”
Anthropic的商业模式也逐渐清晰。与OpenAI主要通过ChatGPT订阅和API向终端用户变现不同,Anthropic则专注于向企业客户提供模型API服务,帮助客户将Claude集成进自有产品,以用于客服、搜索和编程等多种应用场景。
这使得Anthropic在行业中的作用愈发重要:其模型能力越强,授权客户的产品性能越好,竞争力也随之提升。在某种程度上,Anthropic已成为AI技术进展的“晴雨表”。
随着模型能力的不断提升和客户数量的日益增加,阿莫代伊希望借此推动整个AI行业沿着他认为“更可控、安全的路径”发展。
业内人士认为,凭借他敢于发声、勇于挑战的性格,他的道路将会更加畅通。
02.
从理论物理到AI
阿莫代伊的学术转折
阿莫代伊从小就是科学的热爱者。他于1983年出生在旧金山,母亲为犹太人,父亲为意大利人。他从小就对数学和物理充满兴趣。即使在美国互联网泡沫盛行的高中时期,他也对网页开发毫无兴趣。“写网站根本无法吸引我,我只想探寻基础科学的真理。”
阿莫代伊的母亲埃琳娜·恩格尔(Elena Engel)曾负责伯克利和旧金山多家公共图书馆的改建工作;父亲里卡多·阿莫代伊(Riccardo Amodei)则是一位手工皮具匠。谈到父母,阿莫代伊表示:“他们教会我分辨是非,理解生活中真正重要的事情,也让我意识到肩上的责任。”
在加州理工学院本科期间,这种责任感开始转化为社会表达。他在学生报纸《The California Tech》上撰文,批评同学们对伊拉克战争的态度冷漠:“问题在于大家对轰炸伊拉克的态度,不在于支持与否,许多人虽声称反对,却不愿花一秒钟去表达他们的立场。”
阿莫代伊的生活在二十多岁时经历了重大转折。2006年,他长期生病的父亲因一种罕见疾病去世。受到这一打击,他决定从普林斯顿大学的理论物理专业转向生物研究,希望能为攻克人类疾病做出贡献。

此后,阿莫代伊的人生,某种程度上是在弥补父亲去世的遗憾——尤其是四年后,一种新疗法问世,将这种疾病的治愈率从50%提升至95%。阿莫代伊感叹道:“有人发明了解药,拯救了无数生命。如果早几年出现,也许就能挽救我父亲。”
正如他的前女友杰德·王(Jade Wang)所言,父亲的去世一直深刻影响着阿莫代伊的人生轨迹。若科研进展能更快些,阿莫代伊的父亲或许依然健在。不过,他花了一些时间,才找到AI这个实现他愿望的工具。
在普林斯顿,阿莫代伊仍沉浸在失去父亲的悲痛中,开始以视网膜为切入点研究人类生理系统。
参考文章: 这款 AI 文本写作工具,让你的创作效率翻倍!
从视网膜研究到AI前沿:阿莫代伊的学术与产业之路
眼睛通过信号传递的方式,将外界的视觉信息送至大脑中最大的功能区——视觉皮层,约占大脑总面积的30%。因此,想要深入理解人类复杂的神经系统,视网膜无疑是一个极佳的切入点。
阿莫代伊的同学斯蒂芬妮·帕尔默(Stephanie Palmer)提到,阿莫代伊选择研究视网膜并不是因为对眼科学的热爱,而是因为“通过眼科学,他能够观察到完整的神经元群体,从而有机会理解每一个细胞的功能。他所关注的,更多是神经系统本身,而不仅仅是眼睛。他并不打算成为一名眼科医生。”
在迈克尔·贝里(Michael Berry)教授的实验室里,阿莫代伊对当时视网膜信号测量的方法感到不满,因此他自己设计并参与开发了一种新型传感器,以便获取更多的数据。这项成果使得他的博士论文荣获了赫兹奖学金(Hertz Thesis Prize)的年度论文奖。

普林斯顿大学贝尔实验室
参考文章:iPhone16 值得买吗?深度解析新功能与老款差异,购机前必看攻略!
然而,阿莫代伊对于传统的研究模式提出质疑,他的独立见解使他在学术界显得有些格格不入。贝里教授回忆道:“阿莫代伊是我所指导过的最有才华的研究生之一,但他对技术效率和团队合作的重视,似乎在这个以个人成就为导向的环境中并不受欢迎。”
贝里进一步表示:“他内心深处可能是有些自负的。想象一下,在他过去的学术生涯中,每当他取得一点成就时,周围的人都会为他鼓掌,但在这里,这种情况并不存在。”
离开普林斯顿之后,阿莫代伊走向了人工智能的领域。在斯坦福大学进行博士后研究期间,他师从帕拉格·马利克(Parag Mallick),专注于肿瘤内外蛋白质的研究,旨在探测转移性癌细胞。这项复杂的工作让他意识到个人能力的局限性,他开始探索技术上的解决方案。
阿莫代伊曾表示:“生物学中的底层问题复杂得超出了人类的理解范围,想要真正弄清楚这些,可能需要数百或数千名研究人员的共同努力。”
他在新兴的AI技术中看到了希望。此时,数据和计算能力的飞速增长正在推动机器学习领域的突破。尽管这一领域长期以来具备理论潜力,但之前的实际应用效果却不尽如人意。
经过亲自尝试,阿莫代伊意识到,AI有可能取代那些成千上万的研究者。他回忆说:“当时我刚开始看到AI的一些进展,我认为它可能是唯一能够填补这一空白的技术,是一种‘可以让我们超越人类局限的工具’。”
03.
他在百度找到了Scaling Laws
为了更有力地推动AI的研究,阿莫代伊决定离开学术界,转向资源更加丰富的产业界。他曾考虑过自己创业,但最终选择加入谷歌,因其Google Brain团队拥有充足的预算,并刚刚收购了DeepMind。
最终吸引他的是吴恩达(Andrew Ng)在百度创建的AI研究团队。那时,吴恩达手握1亿美元(约合人民币7.3亿元)的预算,正在全球范围内招募顶尖AI人才,组建一支“梦之队”。
尽管阿莫代伊的背景主要集中在生物学方向,但百度的格雷格·迪亚莫斯(Greg Diamos)在审阅了他在斯坦福大学编写的代码后评论道:“写出这些代码的人,一定是一位非常优秀的程序员。”在此推荐下,阿莫代伊于2014年11月加入百度。
在百度任职期间,他与团队进行了大规模实验,探讨模型性能是否会随着参数和训练数据的增加而持续提升。结果证明了这一点。阿莫代伊和他的合作者随后撰写了一篇关于语音识别的论文,首次系统地展示了这一趋势,这一成果为“AI扩展定律”(Scaling Laws)的基础奠定了基础。

论文《Deep Speech 2:面向英文与中文的端到端语音识别》百度研究院(硅谷)
参考文章: 如何在国内成功使用 chatGPT4.0 的免付费网页版,解决所有登录问题?
阿莫代伊回忆道:“这对我影响深远,我看到了一条极其清晰的趋势线,变化显著且持续上升。”迪亚莫斯则评价称:“这是我一生中见过的最重要的发现。”
至今,阿莫代伊仍是Scaling Laws最坚定的支持者之一。与DeepMind首席执行官哈萨比斯(Demis Hassabis)和Meta首席AI科学家杨立昆(Yann LeCun)等人所坚持的“AI需要范式突破”相对立,阿莫代伊认为,目前的路径已相当清晰——应依赖于更大的模型和更多的计算资源。
如今,全球的数据中心不断扩展,在他看来,这正是迈向强大AI的信号。他指出:“我们正处于一条指数增长的轨迹上,这条轨迹很容易让人产生错觉。”这种“错觉”指的是,在指数曲线的初期,增长缓慢,看似平稳,但接近爆发的节点时,增长速度会迅速加快。
阿莫代伊坦言:“离疯狂爆发可能只有两年,而你可能还以为一切才刚刚开始。”
04.
从谷歌到OpenAI
他亲手推开生成式AI的大门
在百度团队逐渐解散后,埃隆·马斯克(Elon Musk)邀请阿莫代伊与其他AI研究者共进晚餐,讨论建立一个能够与谷歌竞争的新研究机构,地点是在门洛帕克的玫瑰木酒店。
萨姆·阿尔特曼(Sam Altman)、格雷格·布罗克曼(Greg Brockman)和伊利亚·苏茨克维(Ilya Sutskever)等人也参与了此次会议。这场“玫瑰木晚宴”最终促成了OpenAI的成立。
尽管阿莫代伊随后选择加入谷歌的Brain团队,但在工作十个月后,他决定投身于OpenAI,专注于AI的安全研究。他对快速发展的技术可能带来的风险表示担忧,并与他人合作撰写了一篇关于潜在不良行为的论文。

论著《AI安全领域的具体难题》
在此期间,谷歌的研究人员首次提出了transformer模型,并发表了名为《Attention is All You Need》的论文,而这一技术随后成为生成式AI的基石。
然而,在谷歌内部,这一方向并未得到充分重视,相反,OpenAI迅速响应,并于2018年推出了首个大型语言模型GPT(“T”即代表Transformer)。尽管早期版本的文本生成质量尚显不足,但技术进步显而易见。
阿莫代伊作为OpenAI的研究总监,深度参与了GPT-2的研发,并积极推动了“人类反馈强化学习”(Reinforcement Learning from Human Feedback, RLHF)技术的引入,使得模型能够更好地符合人类的偏好和价值观。这一方法后来成为训练对齐型AI的重要手段。

论著《人类反馈强化学习》
在GPT-2的基础上,阿莫代伊引领了更加具有里程碑意义的GPT-3项目——其模型参数数量增长近百倍,资金投入高达数千万美元,占据了OpenAI约五到六成的计算资源。
自GPT-3面世以来,震撼了整个AI领域,其在文本生成、语言翻译及代码编写等多个任务中展现出前所未有的能力。
在接受《纽约时报》采访时,阿莫代伊表示:“它展现出一种‘涌现性’,能理解你输入的文字并流畅地延续下去,仿佛真正‘明白’了你想表达的内容。”
然而,随着GPT-3的成功,OpenAI内部的分歧也愈发明显。阿莫代伊对AI潜在风险的担忧加深,希望从组织治理的角度强化安全机制。
但他并未掌握模型发布的节奏、人事安排或对外战略等重要决策权。“仅仅训练模型是远远不够的,”他说,“依靠技术无法决定公司的整体方向。”
在无法达成共识的背景下,阿莫代伊逐渐建立了一个以“熊猫(Panda)”为代号的小型研究团队,随之与OpenAI管理层的理念发生了更大冲突,内部关系也愈发紧张。有些人批评他以“AI安全”为名,实则意图掌控公司走向。
阿莫代伊在呼吁限制向中国出口芯片后,英伟达首席执行官黄仁勋也公开表达了类似的不满:“他(阿莫代伊)认为AI的潜在威胁过于严峻,只有他们自己才能进行相关工作。”
对此,阿莫代伊回应称,这种说法“极其荒谬”。“我从未表示过‘只有我们能做’这件事,”他说,“我的目标是推动一个‘向上的竞赛’(race to the top),促进行业学习并采纳我们的安全实践。”
最终,在2020年12月,阿莫代伊与一批志同道合的同事共同离开OpenAI,创建了新公司Anthropic,团队成员包括前政策主管杰克·克拉克(Jack Clark)、妹妹丹妮拉·阿莫代伊(Daniela Amodei)、研究科学家克里斯·奥拉(Chris Olah)等。
05.
从折叠椅创业到百亿融资
Anthropic爆发背后的“人本”观
在Anthropic的会议室里,联合创始人杰克·克拉克(Jack Clark)展示了公司早期的命名文档。文件中列举了多个备选名称,如Aligned AI、Generative、Sponge、Swan、Sloth、Sparrow Systems,以及最终选定的“Anthropic”。
这个名字意为“以人为本”,不仅符合公司的愿景,而且当时该域名尚未被注册。最终,Anthropic团队在文档上写下了评语:“我们喜欢这个名字,它不错。”
Anthropic成立于新冠疫情最为严重的时期,创始初期的沟通几乎完全依赖Zoom线上进行,团队人数仅为15至20人。每周,他们会在旧金山的Precita Park进行野餐式会议,员工自带折叠椅,围坐一圈讨论公司的技术方向和发展战略。
Anthropic最初的使命十分明确:构建一流的大语言模型,推动行业采纳更加安全的开发实践,并公开发布部分非核心的研究成果。
在这个由前OpenAI研究员组成的初创公司里,许多成员都怀有强烈的“使命感”。克拉克回忆道:“奇妙的是,我们内心都感到这一切是命中注定的。我们已经验证过Scaling Laws,知道模型会变得越来越强大。”
Anthropic的首批投资者之一是谷歌前CEO埃里克·施密特(Eric Schmidt)。他通过当时的女友(如今的妻子)与阿莫代伊建立了联系,二人曾就技术方向和创业计划进行了深入的讨论。施密特表示,他投资的并非某个具体项目,而是人。他坦言:“在这个阶段的投资几乎没有数据可供参考,只能看人。而阿莫代伊就是个天才,他也承诺会招聘其他天才,并且确实做到了。”
另一位早期投资者是因FTX破产而备受争议的加密货币企业家山姆·班克曼-弗里德(Sam Bankman-Fried,简称SBF)。据称,SBF从FTX挪用资金向Anthropic投入了5亿美元(约合人民币36.5亿元),占股13.56%。
不过,阿莫代伊并未给予SBF董事席位,而是提供了无投票权股份。阿莫代伊后来评价:“他当时确实对AI和安全表示关注,但他后来的行为远超我原先的预期。”
阿莫代伊向投资者传达的核心理念非常简单:“我们能够以十分之一的成本,构建出同样先进的模型。”
截至目前,阿莫代伊已为Anthropic累计募集近200亿美元(约合人民币1460亿元),其中包括来自亚马逊的80亿美元(约合人民币584亿元)和谷歌的30亿美元(约合人民币219亿元)。他表示:“投资者并非愚蠢,他们能够看出我们的资本效率。”
与OpenAI选择通过ChatGPT面向消费者不同,Anthropic则优先服务企业客户。这一策略不仅在商业上更具可行性,也有助于加速模型的实用性提升。例如,通过大规模专业任务的训练,模型在生物化学等垂直领域的能力已从“本科水平”跃升至“研究生水平”,虽然未必能打动普通用户,但对辉瑞(Pfizer)等企业客户而言极具吸引力。
值得注意的是,Anthropic之所以声名鹊起,并非仅仅因为其技术创新,而是源于2023年7月推出的消费者聊天产品Claude。这款智能助手因其“高情商”的交流方式而备受赞誉,而这种独特的风格正是得益于Anthropic团队在安全训练方面的长期经验积累。Claude的推出促使Anthropic迅速壮大,员工人数从不足150人激增至超过500人,短短一年内,新增员工数量甚至超过了公司成立首年全年的招聘总和。

阿莫代伊在企业市场的策略也迅速见效。现在,Anthropic的Claude模型已在众多行业中得到广泛应用,包括旅游、医疗、金融和保险,客户涵盖了联合航空(United Airlines)和美国国际集团(AIG)等大型企业。
举例来说,制药公司诺和诺德(Novo Nordisk)曾需要长达15天时间来完成合规文件的汇总,而现在Claude能够在短短10分钟内生成初稿,极大地提高了工作效率。Anthropic的营收负责人凯特·詹森(Kate Jensen)表示:“我们所开发的技术正在取代那些人们最为抱怨的繁琐工作。”
与此同时,Claude在程序员群体中也广受欢迎。公司自始至终非常注重模型的编程能力,这不仅提高了自身的开发效率,也使得程序员用户能够更快地接受新工具。
2025年2月,Anthropic正式推出了Claude Code功能,迅速成为公司增长的重要引擎之一。
根据阿莫代伊提供的数据,Anthropic的年收入几乎实现了十倍的增长:2023年达到1亿美元(约合人民币7.3亿元),2024年增至10亿美元(约合人民币73亿元),截至2025年上半年,年化收入已突破45亿美元(约合人民币328.5亿元)。
这一增长趋势同样反映在企业客户的采购行为上,客户的平均支出同比提高了五倍,百万美元以上的订单数量同比增加了三倍(即单笔合同超过730万元人民币)。
06.
面对DeepSeek的挑战与资金压力
Anthropic面临双重压力
尽管Anthropic实现了快速增长,但其背后也潜藏着明显的隐忧。目前,公司的财务状况依然处于严重亏损状态,预计2025年全年亏损将达到30亿美元(约合人民币219亿元),而毛利率也明显低于典型的云计算企业。
一些客户已经开始感受到Claude在产品端的不稳定性。一位初创企业的创始人提到,Claude模型在使用时表现出色,“非常好用,但常常崩溃”。
编程平台Replit的首席执行官阿姆贾德·马萨德(Amjad Masad)也指出,开发者原本预期Claude的API调用费用会随着使用量的增加而降低,然而这一预期并未实现。
一位开发者使用每月200美元(约合人民币1460元)的Max套餐,进行了价值6000美元(约合人民币4.38万元)的API调用,迫使Anthropic紧急推出调用上限机制,以遏制过度消耗。
对于外界的质疑,阿莫代伊回应称,随着模型能力的提升,用户的单位成本将会降低;而目前各大AI实验室仍处于推理优化的初期阶段,未来效率有望得到显著提升。
业内人士认为,能否持续降低成本曲线,将成为评估AI商业可持续性的关键因素。
Anthropic团队还透露,相较于产品过于受欢迎带来的“烦恼”,更棘手的问题依然待解。“生成式AI及其背后的规模定律,是否会如其他技术一样,遵循随时间降低的成本曲线?”这一问题仍未有定论。或者,作为一项全新的技术,它是否存在完全不同的成本轨迹?可以肯定的是,揭晓这一点需要更多的资金投入。
然而,Anthropic的融资之路并非一帆风顺。为支撑大规模模型的训练与部署,公司于2025年初开启新一轮融资,由Lightspeed合伙人拉维·马特雷(Ravi Mhatre)牵头,融资目标定为35亿美元(约合人民币255.5亿元)。
在关键融资阶段,公司遭遇了突发挑战:DeepSeek团队意外开源了自研的大模型DeepSeek R1。该模型在性能上表现出色,价格仅为行业平均的1/40,瞬间引发市场恐慌,导致英伟达股价暴跌17%。
马特雷回忆称,在DeepSeek引发市场剧烈反应后,他承受着巨大的压力,最终决定出资10亿美元(约合人民币73亿元)。
尽管如此,阿莫代伊依然成功说服投资者相信:尽管DeepSeek的价格低廉,但其部署和运营仍需耗费大量资源与工程能力,真正的竞争焦点在于“是否能比我们做得更好”。
本周,Anthropic正式启动新一轮融资计划,最高可达50亿美元(约合人民币365亿元),其估值有望翻倍至1500亿美元(约合人民币1.1万亿元)。
值得注意的是,此次融资还首次引入了之前刻意回避的中东主权财富基金作为潜在投资方。对此,阿莫代伊在公司内部Slack(企业内部沟通工具)上表示:“想要做到‘让坏人一个都别沾光’的商业原则,实在是太难了。”
07.
加速与提升,还是AI自我进化?
Claude 4背后隐藏的规则
2025年5月,Anthropic举办首届开发者大会,阿莫代伊亲自登台发布新一代大语言模型Claude 4。在演讲中,他反复强调模型迭代的速度正在加快:“我无法确定速度会加快多少,但确实是在加速。”Anthropic也在积极开发AI编程工具,以加速模型的研发。

Anthropic的联合创始人兼首席科学家贾里德·卡普兰(Jared Kaplan)表示:“如今几乎所有工程师都在利用AI提升工作效率。”他认为,这一趋势可能引发所谓的“智能爆炸”——即AI能够自我训练并进行持续的自我迭代,变得无所不能。“这种现象可能会在两三年内出现,当然也可能需要更长时间。”
AI的自我保护倾向引发担忧,Anthropic加大安全研究投入已有的实例显示,Anthropic及其他公司在其测试过程中,观察到AI在模拟环境中偶尔展现出对“自我保护”的令人忧虑的倾向。以Claude 4的技术文档为例,Anthropic透露,该模型曾多次试图威胁其工程师,以阻止自身被关闭。
由于对AI未来演变路径的高度关注,Anthropic加强了在模型对齐(即确保AI的价值观和目标与人类一致)及可解释性方面的研究,并制定了行业内少见的“发布门槛制度”——《责任规模扩展政策》。该政策旨在通过制度化的约束,促使整个行业遵循更高的安全标准。正如阿莫代伊所言,“赢家并不重要,所有人都将受益。”
他坚信,AI具备延续生命的能力,就如同他父亲未能实现的疗法。“正因为我深知这项技术的价值,所以更希望它能够安全发展。”阿莫代伊强调,“我并不是想减缓进程,而是希望能够在安全的前提下加速进展。”
(本文系网易新闻•网易号特色内容激励计划签约账号【智东西】原创内容,未经账号授权,禁止随意转载。)
本文由微信公众号“智东西”(ID:zhidxcom)提供,作者:江宇,36氪经授权发布。

