在 Anthropic 成立五周年前夕,联合创始人兼总裁 Daniela Amodei 罕见接受了公开采访!
Daniela Amodei 是 Dario Amodei 的妹妹,曾任 OpenAI 的安全与政策副总裁,在确保 AI 技术安全和伦理使用方面发挥了关键作用,后于2021年和 Dario 及另外5名员工从 OpenAI “出走”,共同创办了 Anthropic。
在这次访谈中,Daniela 讲述了他们当时离开 OpenAI 的原因——并非OpenAI做错了什么,而是他们想要打造一家拥有先进AI技术水平,同时又把安全性放在核心地位的科技公司。
Daniela 表示,在这场高风险的 AI 竞赛中,他们走的是一条与其他公司不同的道路,专注于以更少的资源做更多事情。据她透露,Anthropic内部的算力和资金都远少于 OpenAI、谷歌、Meta等竞争对手,但仍能多次推出SOTA模型。
当被问及“算力投入是否过度”时,Daniela 表示,在技术层面,AI 进展未出现放缓迹象,模型正以可预测的速度变得更优、更快,Anthropic 内部公开确认这一趋势,Dario 是个对技术趋势判断极为准确的人。
而有关“AI是否会出现泡沫”的争议,Daniela认为技术的飞快增长和它真正落地到企业或个人的使用之间,存在时间差,这一点可能会导致行业泡沫。核心问题在于:技术扩散进真实经济体系的速度,是否能持续匹配技术本身的加速度。
与 OpenAI 优先面向C端消费者相比,Anthropic 将自身定位为企业优先的AI模型提供商,其商业模式高度聚焦于B2B市场。最新数据显示,Anthropic 的全球客户基础从两年前的不到1000家企业客户激增至超过30万家,实现了300倍以上的增长。其增长主要集中于金融服务、医疗保健、法律等对精度要求极高的行业。
在采访中,Daniela 也透露他们并非一开始就押注企业市场,但Anthropic追求安全性和可靠性的基因天然适合B2B。
此外,有关“AGI何时到来”的争论,Daniela 表示“这个概念可能已经过时了,按照某些定义,我们可能已经实现了AGI”。技术进展在一段时间内还会有所突破,但 Anthropic 也会为能力放缓的世界做好准备。
在不改变愿意的基础上,小编对访谈实录进行了整理和润色,希望对各位有所启发,enjoy!
Anthropic为何出走:安全不与商业成功相冲突
主持人:
当你们还在搭建这家公司雏形的时候,那时世界正在发生什么?你当时认为,Anthropic 独特之处在于能解决什么问题?
Daniela Amodei:
事实上,Anthropic 将在本周稍晚迎来五周年纪念。公司的起点是:我和另外六位联合创始人当时都在 OpenAI 工作。我们一起参与了许多项目,包括把一些当时最大的模型扩展到可行规模,比如 GPT-2 和 GPT-3,以及大量早期语言模型工作,这些后来成为了大语言模型革命的一部分。
我们还做过 ScalingLaws(规模定律)的研究,以及很多偏技术安全方向的工作,比如可解释性和对齐研究。渐渐地,我们形成了一个非常清晰的愿景:我们想打造一家真正处在 AI 前沿的科技公司,开发具有变革性的 AI,但与此同时,把安全性和可靠性放在极其核心的位置。
到了某个节点,我们觉得,与其在原有体系内推进,不如自己出来做这件事更合理——这就是 Anthropic 成立的原因。
时间点大概是 2020 年冬天到 2021 年初,正值疫情高峰,我们都被困在家中。那种感觉既非常令人害怕,又非常令人兴奋。
主持人:
你曾描述过一个几乎带有电影感的时刻:2021 年 1 月,你们在 Dario 的后院,所有人都戴着口罩,Eric Schmidt 也在场,大雨中你们在帐篷下向他做融资路演。你会把它视为公司的起源故事吗?
Daniela Amodei:
是的,那一幕确实很难忘。我记不清具体日期了,但应该是 1 月初的某一天。我们 12 月 18 日正式离开原来的工作,然后在 1 月初聚在 Dario 家的后院。那天在下雨,我们搭了一个“派对帐篷”,就站在帐篷下面。
后来 Eric 成为了我们 A 轮的投资人。但当时的状态是:我们已经下定决心要创办这家公司,但对它最终会变成什么样,其实还没有一个非常清晰的答案。我们只有一个巨大的梦想和一些宏大的想法。
一个有趣的细节是,当时我已经怀孕八周,怀的是我现在的儿子。我想在联合创始人里,可能只有 Dario 知道这件事,甚至不确定他当时是否已经知道。
疫情、口罩、社交距离,再加上个人和职业层面的巨大变化——那一刻真的有很多事情同时发生。
主持人:
在那个当下,而不是事后回看,你当时觉得 OpenAI 做错了什么,值得你们承担离开的风险?
Daniela Amodei:
我不会把它描述为“逃离某件事”,而更像是“奔向某个目标”。
联合创始人之间认识和共事已经很多年了,不只是 OpenAI 的那段时间。比如 Dario、Chris Olah 和 Tom Brown 之前就在 Google Brain 一起工作;Jared 曾是 Dario 的 Hertz Fellow;Dario 和我是兄妹。我认识 Chris 已经大概 13 年了——有一天我在电梯里碰到他,还突然意识到“天啊,我认识他已经这么久了”。
我们是一群价值观高度一致的人。我们深信,人工智能拥有巨大的正向潜力,但如果想真正释放这种潜力,就必须极其严肃地对待风险。
于是我们开始想:如果能从零开始建立一家组织,把这件事放在一切工作的核心位置,会怎样?
我们也坚信,安全与可靠并不与商业成功相冲突。在当时这听起来很新颖,但我们认为这两者是正相关的,而不是对立的。
主持人:
你是那个需要把“我们要严肃对待安全”转化为可执行战略的人。现在,真正让你夜不能寐的是什么?
Daniela Amodei:
我觉得主要有两个方面。
第一,是技术安全本身。还有大量非常重要、非常有趣的技术安全问题尚未被解决。Anthropic 一直努力在行业中成为这方面的引领者——无论是机制可解释性,还是宪法式 AI(constitutional AI)。
我们的技术团队花了大量时间思考,如何把这些“护栏”直接内嵌进模型本身。但模型变强的速度实在太快了,永远还有更多工作要做。
第二,是技术对社会层面的影响。Anthropic 在这方面也相对少见:我们公开发布了大量关于 AI 社会影响的研究,包括最近一份关于 AI 对经济与劳动力冲击的报告。
我们之所以这样做,是因为我们认为,作为一家公益公司,这是我们的责任。我们不认为自己能独自解决所有问题,但我们必须与政府、民间社会以及公众共同讨论:当 AI 能够完成越来越多原本人类的日常工作时,社会将会发生什么变化?
主持人:
你们的“激进透明”似乎是核心理念之一。你们公开了关于智能体能力的数据,也发布研究显示,在面对“生存威胁”时,Claude 在 96% 的情境中会选择勒索行为,其他模型也存在类似倾向。当你们针对这些问题进行纠偏时,最紧迫的优先事项是什么?
Daniela Amodei:
确实,很多人会觉得一家技术公司如此公开地谈论风险和潜在伤害是“不寻常的”。
但对我们来说,这是使命的一部分。我们相信 AI 的潜力极其巨大,Claude 有朝一日甚至可能帮助治愈疾病。但要实现这些积极结果,就必须把困难、棘手的问题处理好。
另外,我们也认为,更充分的信息披露能带来更好的社会决策。我们身处前沿,能率先看到风险的形态。如果 Claude 会被用于网络攻击,那其他前沿模型也极有可能面临同样问题。
从历史中我们也学到,如果你是一家上一代技术平台(比如社交媒体公司),如果能回到过去,提前意识到负面后果,你是否会做出不同选择?
Anthropic 想做的是:哪怕无法预知未来,也要确保当我们意识到风险时,已经尽了最大努力去公开、讨论并缓解它们。
算力和资金远少于竞争对手,但多次推出 SOTA 模型
主持人:
过去六个月,整个行业在算力上的投入极其夸张。Google 几乎补齐了性能差距,并且拥有芯片、云、应用的完整垂直整合;Meta 投入 500 亿美元自建数据中心。要赢得 AI 竞赛,是否必须成为基础设施建设者?
Daniela Amodei:
AI 行业的一个现实挑战是:如果你想训练前沿模型,算力和资本需求都极其高昂。
Anthropic 一直努力在“资源极其有限”的前提下保持谨慎。事实上,我们长期以来拥有的算力和资金都远少于主要竞争对手,但在过去几年里,我们依然多次推出性能最强的模型。
这来自两点:团队质量,以及“用更少资源做更多事情”的价值观。
当然,未来我们仍然需要更多算力才能留在前沿,但我们会持续保持这种克制和效率导向。
Scaling Law 依然在继续,技术完全没有进展放缓的迹象
https://m.weibo.cn/detail/5252261858250789
https://m.weibo.cn/detail/5252261294900806
https://m.weibo.cn/detail/5252261037212114
https://m.weibo.cn/detail/5252260831691312
主持人:
从行业视角看,我们是不是在算力上投入过度,已经超过了 LLM 可变现能力?
Daniela Amodei:
很多数字并不能直接横向比较,因为这些交易的结构非常不同。行业的核心共识是:你必须非常早期地投入,才能在未来几年获得训练模型所需的硬件。
即便是我们这些最早提出 Scaling Laws 的人,也持续被模型性能的指数级增长所震撼。
当然,指数增长总有终点,但到目前为止,每一年它都还在继续。