五角大楼的最后通牒:Anthropic的72小时生死劫 | 加密百科深度分析

今天4阅读
正在加载实时行情...

加密百科独家解读

这件事,本质上是一家“人设”值3800亿美金的AI明星公司,在72小时内被扒掉了三层皮,露出了商业与政治博弈的残酷内核。你可以把它看成一场“AI人设崩塌”的现场直播。

第一层:安全人设 vs. 军方订单

Anthropic一直把自己包装成“AI界的安全卫士”,甚至为此拒绝军方用AI来全自动杀人或大规模监控美国人。这曾是它最值钱的品牌标签。但现在,五角大楼拿着2亿美金合同和《国防生产法》这把“尚方宝剑”找上门,命令它“要么听话,要么滚蛋”。这就像一家号称“绝对有机”的农场,被最大采购商要求必须使用农药,否则就断绝生意并把你列入行业黑名单。Anthropic的“安全原则”在真实的权力和金钱面前,正在被逼到墙角。

第二层:受害者人设 vs. 加害者事实

就在被军方施压的同一天,Anthropic高调指控三家中国公司“窃取”它的技术(蒸馏攻击),把自己塑造成国家安全受害者。但尴尬的是,Elon Musk等人立刻翻出旧账:Anthropic自己就曾因大规模盗用图书数据训练模型,赔了150亿美金。这好比一个靠抄袭起家的作家,突然跳出来指责别人看了他的公开文章后模仿了他的文风。这种“双标”操作,让它的道德指控瞬间失去了分量,更像是在为游说政府收紧芯片出口管制而演的戏。

第三层:暂停训练承诺 vs. 军备竞赛现实

最核心的一击来自它自己。Anthropic悄悄删掉了创始以来最硬的承诺——“如果安全措施没跟上,就暂停训练更强大的模型”。这承诺曾是它在AI安全圈里的“金字招牌”。现在,它自己把这招牌拆了,理由很直白:竞争对手(OpenAI、谷歌等)都在全速狂奔,我单方面刹车就是傻子。这等于承认,在激烈的商业和军事竞赛中,当初赖以成名的“安全第一”原则,已经成了拖累发展的包袱。

把三层皮叠起来看,真相就清楚了:

Anthropic正陷入一个不可能三角:要保住军方订单和市场份额,就得放弃部分安全原则;要维持“安全卫士”的人设,就可能被市场和政府抛弃;要指控别人“窃取技术”,自己就得先洗干净数据盗窃的底子。 它现在的每一个动作,都是在试图平衡这个三角,但结果却是左支右绌,人设越来越矛盾。

这不仅仅是Anthropic一家的危机。它标志着整个AI行业的一个转折点:早期靠“负责任”、“安全”这些道德标签获取溢价和好感的阶段可能正在结束。当技术深入真正的权力(军事)和金钱(万亿市场)游戏时,企业那些美好的“原则”往往第一个被摆上谈判桌。周五下午5点01分,Anthropic给军方的答复,无论是什么,都意味着那个“不一样的AI公司”的故事,已经讲不下去了。


背景资料 (原快讯)

原文作者:Ada,深潮 TechFlow

2 月 24 日,星期二。华盛顿,五角大楼。

Anthropic CEO Dario Amodei 坐在国防部长 Pete Hegseth 对面。据 NPR 和 CNN 多家媒体援引知情人士透露,会面的气氛“礼貌”,但内容一点都不客气。

Hegseth 给了他一个最后通牒:周五下午 5:01 之前,放开 Claude 的军事使用限制,允许五角大楼将其用于“所有合法用途”,包括自主武器瞄准和国内大规模监控。

否则取消 2 亿美元合同。启动《国防生产法》,强制征用。将 Anthropic 列为“供应链风险”,这等同于把它归入俄罗斯和中国敌对实体的黑名单。

同一天,Anthropic 发布了第三版“负责任扩展政策”(RSP 3.0),悄悄删掉了公司成立以来最核心的一条承诺:如果无法保证安全措施到位,就不训练更强大的模型。

也是同一天,Elon Musk 在 X 上发帖说:“Anthropic 大规模窃取训练数据,这是事实。”同时,X 的社区笔记补充了 Anthropic 因使用盗版书籍训练 Claude 而支付 15 亿美元和解金的报道。

七十二小时内,这家自称有“灵魂”的 AI 公司,同时扮演了三个角色:安全殉道者、知识产权窃贼、五角大楼的叛徒。

哪个才是真的?

也许都是。

五角大楼的“要么服从,要么滚”

故事的第一层很简单。

Anthropic 是第一家获得美国国防部机密级访问权限的 AI 公司。去年夏天拿到的合同,上限 2 亿美元。OpenAI、Google、xAI 随后也各拿了同等规模的合同。

据 Al Jazeera 报道,Claude 曾被用于今年 1 月的一次美军行动。报道称该行动涉及委内瑞拉总统马杜罗的绑架。

但 Anthropic 划了两条红线:不支持全自主武器瞄准,不支持对美国公民的大规模监控。Anthropic 认为,人工智能的可靠性不足以操控武器,而且目前还没有任何法律法规规范人工智能在大规模监控中的应用。

五角大楼不买账。

白宫 AI 顾问 David Sacks 去年 10 月在 X 上公开指控 Anthropic“以恐惧为武器,搞监管俘获”。

竞争对手已经跪了。OpenAI、Google、xAI 都同意让军方将其 AI 用于“所有合法场景”。Musk 的 Grok 本周刚获批进入机密系统。

Anthropic 是最后一个站着的。

截至发稿,Anthropic 在最新发表的声明中表示,他们并没有打算让步。但周五 5:01 的大限,已经近在眼前。

一位匿名的前司法部与国防部联络员对 CNN 表示了困惑:“你怎么能同时宣布一家公司是‘供应链风险’,又强迫这家公司为你的军队工作?”

好问题,但这不在五角大楼考虑范围之内。他们在乎的是,如果 Anthropic 不妥协,将采取强制手段,或者,成为华盛顿弃儿。

“蒸馏攻击”:一场打脸式的控诉

2 月 23 日,Anthropic 发了一篇措辞激烈的博客,指控三家中国 AI 公司对 Claude 进行了“工业级蒸馏攻击”。

被告是 DeepSeek、Moonshot AI、MiniMax。

Anthropic 指控它们通过 2.4 万个伪造账户,对 Claude 发起超过 1600 万次交互,定向提取 Claude 在智能体推理、工具调用和编程方面的核心能力。

Anthropic 把这件事定性为国家安全威胁,声称蒸馏后的模型“不太可能保留安全护栏”,可能被威权政府用于网络攻击、虚假信息和大规模监控。

叙事很完美,时机也很完美。

恰好在 特朗普政府刚刚放宽对华芯片出口管制之后,恰好在 Anthropic 需要为自己的芯片出口管制游说立场寻找弹药的时候。

但是 Musk 开了一枪:“Anthropic 大规模窃取训练数据,还为此支付了数十亿美元和解金。这是事实。”

AI 基础设施公司 IO.Net 联合创始人 Tory Green 表示:“你们用全网的数据训练自己的模型,然后别人用你们的公共 API 学习你们,就叫'蒸馏攻击'了?”

Anthropic 把蒸馏叫“攻击”,但这件事在 AI 行业是家常便饭。OpenAI 用它压缩 GPT-4,Google 用它优化 Gemini,连 Anthropic 自己也在做。唯一的区别是,这次被蒸的是它自己。

据新加坡南洋理工大学 AI 教授 Erik Cambria 对 CNBC 表示:“合法使用和恶意利用之间的边界往往是模糊的。”

更讽刺的是,Anthropic 刚为使用盗版书籍训练 Claude 支付了 15 亿美元和解金。它用全网的数据训练模型,然后指控别人用它的公开 API 学习它。这不是双标,这是三标。

Anthropic 本想扮演受害者,结果被扒成了被告。

安全承诺的拆除:RSP 3.0

就在与五角大楼对峙、与硅谷互撕的同一天,Anthropic 发布了第三版负责任扩展政策。

Anthropic 首席科学家 Jared Kaplan 在接受媒体采访时表示:“我们觉得停止训练 AI 模型对任何人都没有帮助。在 AI 快速发展的背景下,单方面做出承诺……而竞争对手在全速推进,这没有意义。”

换句话说,别人不讲武德,我们也不装了。

RSP 1.0 和 2.0 的核心是一条硬性承诺,如果模型的能力超过了安全措施的覆盖范围,就暂停训练。这条承诺让 Anthropic 在 AI 安全圈获得了独一无二的声誉。

但 3.0 删了。

取而代之的是一个更“灵活”的框架,即把 Anthropic 自己能做的安全措施和需要全行业协作的安全建议分成两条轨道。每 3-6 个月发一份风险报告。请外部专家审阅。

听起来很负责?

来自非营利组织 METR 的独立审查员 Chris Painter 在看完政策早期草案后对表示:“这说明 Anthropic 认为需要进入'分诊模式',因为评估和缓解风险的方法跟不上能力增长的速度。这更多地证明了社会对 AI 潜在灾难性风险没有做好准备。”

根据 TIME 报道,Anthropic 花了将近一年时间内部讨论这次改写,CEO Amodei 和董事会全票通过。官方说法是,原来的政策设计初衷是推动行业共识,结果行业根本没跟上。特朗普政府对人工智能发展采取了放任自流的态度,甚至试图废除各州的相关法规。联邦层面的人工智能法律遥遥无期。尽管在 2023 年建立全球治理框架似乎还有可能,但三年过去了,这扇门显然已经关闭。

一位长期跟踪 AI 治理的匿名研究员说得更直接:“RSP 是 Anthropic 最值钱的品牌资产。删掉暂停训练承诺,就像一家有机食品公司悄悄把'有机'两个字从包装上撕下来,然后告诉你他们现在的检测更透明了。”

3800 亿估值下的身份撕裂

2 月初,Anthropic 以 3800 亿美元估值完成 300 亿美元融资,亚马逊是锚定投资者。自成立以来,就实现了 140 亿美元的年化收入。过去三年,这一数字每年都增长超过 10 倍。

同时,五角大楼威胁将其列入黑名单。Musk 公开指控其数据盗窃。自己的核心安全承诺被删除。Anthropic 的人工智能安全负责人 Mrinank Sharma 辞职后在 X 上写道:“世界正处于危险之中。”

矛盾?

或许矛盾是 Anthropic 的基因。

这家公司由前 OpenAI 高管创立,因为他们担心 OpenAI 在安全问题上走得太快。然后他们自己建了一家公司,以更快的速度构建更强大的模型,同时告诉全世界这些模型有多危险。

商业模式可以概括为一句话,我们比任何人都更害怕 AI,所以你应该出钱让我们来造 AI。

这个叙事在 2023-2024 年完美运转。AI 安全是华盛顿的热词,Anthropic 是最受欢迎的游说者。

2026 年,风向变了。

“woke AI”成了攻击标签,州级 AI 监管法案被白宫阻击,Anthropic 支持的加州 SB 53 虽然签署成法,但联邦层面一片荒芜。

Anthropic 的安全牌,正在从“差异化优势”滑向“政治负资产”。

Anthropic 在做一个复杂的平衡术,它需要足够“安全”来维持品牌,又需要足够“灵活”来不被市场和政府抛弃。问题是,两头的容忍空间都在缩小。

安全叙事,还值多少钱?

把三件事叠在一起看,画面就清楚了。

指控中国公司蒸馏 Claude,是为了强化芯片出口管制的游说叙事。为了在军备竞赛中不掉队,删除了安全暂停承诺。拒绝五角大楼的自主武器要求,是为了保住最后一层道德外衣。

每一步都有逻辑,但每一步之间又互相矛盾。

你不能一边说中国公司“蒸馏”你的模型会危害国家安全,一边删掉防止你自己的模型失控的承诺。如果模型真的那么危险,你应该更谨慎,而不是更激进。

除非你是 Anthropic。

在 AI 行业,身份不是由你的声明定义的,是由你的资产负债表定义的。Anthropic 的“安全”叙事,本质上是一种品牌溢价。

在 AI 军备竞赛的早期,这种溢价值钱。投资者愿意为“负责任的 AI”支付更高的估值,政府愿意为“可信赖的 AI”开绿灯,客户愿意为“更安全的 AI”付费。

但 2026 年,这个溢价正在蒸发。

Anthropic 现在面临的,不是“要不要妥协”的选择题,而是“先向谁妥协”的排序题。向五角大楼妥协,品牌受损。向竞争对手妥协,安全承诺作废。向投资者妥协,两头都得让。

周五下午 5:01,Anthropic 会交出它的答案。

但无论答案是什么,有一件事已经确定:那个曾经靠“我们和 OpenAI 不一样”立足的 Anthropic,正在变得和所有人一样。

身份危机的终点,往往是身份的消失。

注:以上背景资料自公开行业资讯,加密百科网仅作科普解读。