Anthropic CEO重启与美国国防部AI合同谈判 | 加密百科深度分析
加密百科独家解读
这件事,本质上是一家有原则的AI公司,在和国家机器的巨大订单与自身底线之间走钢丝。
你可以把它想象成一个顶级锁匠。Anthropic这家公司(和它的AI模型Claude)就是锁匠,它造了一把非常先进的智能锁(AI),美国国防部(五角大楼)想买。但锁匠卖锁时立了规矩:“我这锁,你不能用来做成监视所有邻居家的万能钥匙,也不能装到会自动杀人的机器人上。” 这些就是Anthropic不可退让的“红线”。
谈判本来快成了,但上周崩了。崩的原因很关键:国防部在最后关头,要求删掉合同里一个叫 “批量获取数据分析” 的条款。这个条款就是锁匠的“保险机制”,它像一道技术护栏,能防止买家把锁改造成大规模监控工具。国防部要删掉它,在Anthropic看来,就等于为“大规模国内监控”开了后门,触碰了第一条红线。
现在,锁匠的CEO亲自出马,重新谈判,试图找个双方都能接受的妥协方案。但这非常难,因为核心矛盾是:国家安全机构的“无限制使用需求”与AI公司自设的“伦理使用边界”之间的直接冲突。
这件事还有几个值得品味的背景:
1. 竞争与排挤:Anthropic的CEO暗示,他们受到压力部分是因为没给当时的特朗普政府说好话。同时,国防部可能更青睐其竞争对手OpenAI(ChatGPT的公司),这不仅是商业竞争,也涉及不同AI公司对政府合作的伦理尺度差异。
2. 现实的威胁:国防部长曾威胁将Anthropic列为“供应链风险”。这招很狠,相当于官方拉黑,所有国防相关的公司都不能再用Anthropic的技术,会直接掐断其一大商业命脉。
3. 标杆意义:Anthropic是第一个获得许可进入美国机密环境的AI模型,这笔交易本身就是个标杆。它如果最终因为“原则问题”谈崩,会给整个行业立下一个“对抗政府”的先例;如果妥协,则意味着AI公司的伦理红线在巨额政府合同面前可以后退。
对于加密和Web3世界的启示是相通的:当去中心化或强调隐私保护的技术/项目,面对拥有强大资源和国家力量的传统实体寻求合作时,如何在“接受招安”与“坚持初心”之间找到平衡? Anthropic正在经历的,就是Web3项目未来可能面临的核心困境:是坚持“不可篡改”、“抗审查”的代码原则,还是为了规模和应用,接受带有潜在“后门”或限制条款的合作?
这场谈判的结果,将远远超出一份合同的价值。它正在为AI时代,科技公司的伦理底线与国家权力之间的边界,进行一次昂贵的标定。
背景资料 (原快讯)
Anthropic CEO Dario Amodei 正与美国国防部研究与工程副部长 Emil Michael 进行谈判,试图就五角大楼使用 Anthropic AI 模型的合同条款达成妥协。
此前双方谈判于上周破裂。Amodei 在一份内部备忘录中表示,谈判末期国防部提出删除合同中关于“批量获取数据分析”的条款,而该条款正是 Anthropic 防止 AI 被用于大规模国内监控的核心保障。Anthropic 的红线包括禁止 AI 用于大规模国内监控和致命自主武器。
Amodei 在备忘录中还称,五角大楼和 OpenAI 方面的部分表态存在不实信息,并暗示 Anthropic 受到排挤是因为未对 Trump 给予赞誉。此前美国国防部长 Pete Hegseth 曾威胁将 Anthropic 列为供应链风险,此举将迫使军事供应链中的企业切断与 Anthropic 的合作关系。Anthropic 于去年 7 月获得美国国防部 2 亿美元合同,是首个被用于机密环境和国家安全机构的 AI 模型。(FT)
注:以上背景资料自公开行业资讯,加密百科网仅作科普解读。
