Sam Altman回应美国战争部选择OpenAI而非Anthropic:或因运营控制权诉求存在分歧 | 加密百科深度分析
加密百科独家解读
这件事简单说,就是美国国防部(新闻里说的“战争部”)在选AI供应商时,最后挑了OpenAI,没选它的主要对手Anthropic。Sam Altman自己透露,差一点就成了另一家。
为什么没成?核心矛盾在于“谁说了算”。
你可以把这件事想象成两家顶尖的网络安全公司,都想给一个重要机构提供防火墙服务。
Anthropic的思路像是“签死合同”:他们更希望把各种限制条款——比如什么能用、什么绝对不能用——白纸黑字、一条一条地写进合同里。这样法律权责非常清晰,他们也能通过合同保留很大的运营控制权和否决权。这反映出他们可能对技术被应用的边界有极强的原则性要求,必须通过合同锁死。
OpenAI的思路更像是“技术管控+遵守法律”:他们没把宝全押在合同禁止条款上,而是更强调自己搭建了一整套从技术、到人员、到部署方式(比如通过云端,而非直接交付代码)的“分层安全”体系。他们更倾向于在现有法律框架下运行,相信自己的技术护栏和与国防部的直接合作,能有效控制风险。
所以,分歧点就很明显了:Anthropic可能想要通过合同拿到很大的指挥棒,确保事情必须按他们设定的规则运行;而OpenAI则更灵活,愿意在现有法律和自身技术防护下,把更多的操作空间交给合作方(国防部)。
对于国防部这样的机构来说,OpenAI这种“技术保障为主、合同限制较少”的模式,显然合作起来更灵活,束缚更少。而Anthropic对控制权的坚持,可能在紧张的谈判中被视为难以妥协的障碍,导致最后一刻合作破裂。
这件事背后还有一个大背景:AI已经不再是实验室玩具,而是成为了像云计算、加密技术一样的关键基础设施,开始深度介入国家级应用。这种合作不仅关乎商业利益,更关乎未来国家层面在AI安全、伦理和应用主导权上的路线博弈。OpenAI这次的选择,可能为未来政府与前沿AI公司的合作模式定下了一个技术优先、相对开放的调子。
背景资料 (原快讯)
OpenAI 创始人 Sam Altman 在 X 平台发起 AMA 回应近期与美国战争部达成合作,他披露 Anthropic 与美国战争部曾一度“非常接近达成协议”,且在谈判的大部分时间里双方均有强烈意愿达成合作,但在高度紧张的谈判环境下局势可能迅速恶化,这或是交易未能最终落地的重要原因之一。在安全理念方面,OpenAI 采取“分层安全(layered approach)”路径,包括构建安全技术栈、部署前沿部署工程师(FDE)、让安全研究人员参与项目,通过云端部署方式交付并直接与美国战争部合作,相比在合同中设定具体禁止条款,Anthropic 似乎更侧重于合同层面的明确限制,而 OpenAI 更倾向于依赖适用法律框架,并以技术性安全防护措施作为核心保障,但其他公司可能对此持不同立场,Anthropic 或希望在合作中获得更多运营层面的控制权,而这可能也是双方路径分化的原因之一。
注:以上背景资料自公开行业资讯,加密百科网仅作科普解读。
