“全面封杀24小时,反而让Claude冲上了美国App Store免费榜榜首。”
这或许是硅谷历史上最讽刺、也最富戏剧性的一幕。
就在今天,Anthropic CEO Dario Amodei首次在镜头前公开露面。面对CBS的镜头,这位曾经低调的技术领袖满眼疲惫,但眼神中却透着一股决绝。他身后,是一场关于AI伦理、国家安全与商业利益的史诗级博弈。
剧情反转之快,令人咋舌:前脚还是OpenAI员工联名抗议五角大楼,后脚山姆·阿尔特曼(Sam Altman)便官宣拿下国防部大单;紧接着,Anthropic因拒绝妥协遭白宫“全面封杀”,却被民众视为英雄,全网掀起“抵制ChatGPT、转投Claude”的浪潮。
这场风暴不仅重塑了美国AI应用的榜单格局,更将“技术中立”的遮羞布彻底撕碎。
一、奇迹般的逆袭:从百名开外到全美第一数据不会说谎,民众的选择最为诚实。
根据SensorTower的最新数据,Claude的崛起堪称“火箭式”:
- 1月底:Claude在美区App Store排名还在100名以外徘徊。
- 2月中旬:勉强进入前20名。
- 过去72小时:排名如坐过山车般飙升——周三第6,周四第4,周六直接登顶冠军。
与此同时,加拿大App Store也被Claude攻陷。如今,美区应用商店的AI三巨头格局已定:Claude、ChatGPT、Gemini分列前三,但气氛已截然不同。
这一波流量洪峰的导火索,正是Anthropic与美国五角大楼谈判的彻底破裂,以及随之而来的“封杀令”。
民众的“用脚投票”
当白宫宣布封杀Claude的消息传出后,旧金山Anthropic总部外的街道上出现了奇异的一幕:市民们用粉笔在地上画满了爱心,有人甚至写下“感谢不造天网(Thank you for not building Skynet)”的标语。
在Reddit和X(原Twitter)上,一场自发的“迁徙运动”正在上演:
- 取消订阅:无数用户晒出取消ChatGPT Plus会员的截图,配文充满愤怒。
- 转投阵营:“既然OpenAI选择了军方,我就选择Claude。”
- 数据迁移教程爆火:由于担心聊天记录丢失,YouTube上迅速涌现出大量教程,教用户如何利用“Memory Forge”等工具,将ChatGPT的历史对话导出并转换为Claude可识别的格式。
这波操作,让OpenAI遭遇了前所未有的信任危机。尽管阿尔特曼试图通过社交媒体“粉饰太平”,但在愤怒的舆论面前,显得苍白无力。
二、两条红线 vs. 三道防线:道德的试金石这场风波的核心,在于两家巨头对“底线”的不同定义。
Anthropic的“生死红线”
面对五角大楼的“最后通牒”,Dario Amodei坚守了两条自公司成立之初就划定的红线,寸步不让:
- 禁止大规模监视:绝不利用AI技术对美国公民进行无差别的监控。
- 禁止开发自主武器:绝不开发无需人工干预即可自行选择目标并实施打击的致命性武器系统。
Amodei在采访中直言:“我们相信,一旦越过这些界限,就是违背了美国的核心价值观。我们愿意为这些价值观挺身而出。”
他甚至对总统喊话:“我们是爱国的美国人。正因为爱这个国家,我们才不能提供可能伤害无辜平民或导致责任不清的技术。”
OpenAI的“灵活防线”
相比之下,OpenAI的动作则显得“圆滑”许多。
在Anthropic退出后,OpenAI迅速补位,官宣与五角大楼达成协议。阿尔特曼承诺了“三道防线”:
- 禁止大规模国内监控;
- 禁止主导自主武器系统;
- 禁止高风险自动化决策。
听起来很美?但魔鬼藏在细节里。
OpenAI的合同条款中保留了一个关键的后门:“所有合法使用”。这意味着,只要美国政府认为某项行动符合现行法律(哪怕法律本身存在灰色地带),OpenAI就必须配合。
正如一位业内人士犀利点评:“OpenAI只是把决定权完全交给了政府,给自己发了一张‘免责通行证’。而Anthropic拒绝的,正是这种无条件的服从。”
三、封杀与反击:当异议成为“罪过”冲突升级的速度超出了所有人的想象。
由于未能在周五前达成协议,特朗普政府直接下令:
- 联邦禁用:所有联邦机构必须在6个月内逐步淘汰Anthropic的技术。
- 供应链风险:国防部长Hegseth将Anthropic列为“供应链威胁”,并警告所有与军方合作的企业必须切断与Anthropic的商业往来。
这通常是对待“敌对国家”的手段,如今却用在了第一家美国本土AI独角兽身上。Hegseth怒斥Anthropic“自命清高、傲慢自大”,甚至给Amodei贴上了“上帝情结”的标签。特朗普更是直接在社交媒体上称其为“激进左派觉醒公司”。
Dario Amodei的回应:异议即爱国
面对铺天盖地的指责,Amodei在CBS专访中给出了那句振聋发聩的回答:
“与政府持不同意见,是世界上最美国的事情。”
他解释道,AI技术的发展速度已经远超法律的更新速度。在缺乏明确监管的情况下,如果连科技公司自己都放弃护栏,那么“大规模监控”和“全自动杀人机器”将从科幻噩梦变为现实。
“目前的AI模型仍存在幻觉和不确定性,”Amodei担忧地说,“我们不想出售一个可能因为误判而杀死自己人或无辜平民的产品。责任归属在哪里?机器无法承担责任。”
Pentagon(五角大楼)方面则辩称,现有法律已禁止大规模监控,军方政策也限制了自主武器,因此不需要在合同中重复这些条款。首席技术官Emil Michael甚至表示:“你必须相信军队会做正确的事……我们绝不会在合同中写明我们将无法自我防卫。”
但这种“信任论”显然无法说服Anthropic。他们指出,军方的折中方案充满了复杂的法律措辞,实际上为绕过护栏留下了巨大的操作空间。
四、硅谷的“双城记”:谁是真正的爱国者?这场风波暴露了硅谷深层的分裂。
一方面,是OpenAI代表的“实用主义派”:通过与政府深度绑定,换取算力、数据和政策支持,即便这意味着要在道德边缘试探。
另一方面,是Anthropic代表的“理想主义派”:宁愿失去巨额合同(据传价值2亿美元)、面临被封杀的生存危机,也要守住技术的伦理底线。
有趣的是,就连OpenAI内部也发生了动摇。部分员工对阿尔特曼的决定感到失望,甚至有人递交了辞呈。而在外部,OpenAI虽然嘴上说着和Anthropic类似的“原则”,但其合同条款的实质差异,让它在这场道德审判中处于下风。
为什么Anthropic被拒,而OpenAI被接纳?
答案很残酷:因为OpenAI愿意在法律的灰色地带为政府“开绿灯”,而Anthropic坚持要在合同里写下明确的“禁止令”。
Claude的爆火或许带有情绪化的成分,随着时间推移,热度可能会回归理性。但这场事件留下的印记,将永久改变AI行业的游戏规则。
它向全世界宣告:“技术中立”的时代已经结束了。
当AI拥有了监视亿万人、操控致命武器的能力时,每一家巨头都必须回答那个终极问题:
当权力与安全发生冲突时,你站在哪一边?
是选择成为权力的顺从工具,还是做人类价值的守夜人?
Dario Amodei和他的团队用一家公司的命运作为赌注,给出了他们的答案。而市场用App Store的榜首位置,给出了暂时的回响。
这场风暴之后,AI不再是冷冰冰的代码,它成为了政治、伦理与人性的角力场。未来已来,只是它比我们想象的更加沉重。
随时随地看视频