Anthropic和OpenAI在AI竞争加速背景下调整安全规则表述 | 加密百科深度分析

今天1阅读
正在加载实时行情...

加密百科独家解读

这件事简单说,就是AI赛道最顶尖的两家公司,在“安全”和“发展”的天平上,悄悄把砝码往“加速发展”那边挪了挪。

你可以把它想象成一场没有裁判的太空竞赛。本来大家签了个“安全第一”的君子协定,承诺如果飞船检查出问题,就先停下来修好再飞。但现在,Anthropic公开把这个承诺从规则手册里删了,理由是:如果我的对手(比如OpenAI)全速前进,我一个人停下来修飞船,就等于自动认输,毫无意义。OpenAI也改了说法,把使命宣言里“安全地造福人类”中的“安全地”这个词去掉了,现在只强调“要造福人类”。

这传递出几个关键信号:

1. 竞争已白热化:看看融资额就知道了。Anthropic估值近3800亿美元,OpenAI新一轮融资瞄准千亿。这不是技术探索,而是商业和生态位的生死战。在这种压力下,任何可能拖慢速度的承诺都成了负担。企业需要向投资者证明:我们不会因为“过度谨慎”而输掉比赛。

2. “安全”的定义在变化:专家指出,早期AI安全研究者担心的那种具有自主意识的“超级智能”,和现在ChatGPT、Claude这类大语言模型不是一回事。随着技术认知的深入,公司们可能认为,对当前模型沿用过去的“安全暂停”框架有些过时,或者束缚手脚。调整措辞,也是在重新定义行业的安全标准。

3. 行动比口号更真实:Anthropic在另一件事上展现了它的“安全边界”——它因为拒绝向五角大楼全面开放AI访问权限,而与美国国防部产生了矛盾。这说明,它并非抛弃所有安全原则,而是在“商业竞争安全”和“技术滥用安全”之间做出了不同的选择。前者可以妥协,后者则有它的坚持。

这对我们普通人的影响在于,AI技术的发展可能会进入一个更少自我设限、更多商业驱动的“狂飙”阶段。技术的迭代和落地会更快,但相关的规则和保障可能更多需要外部力量(如政府监管)来推动,而非完全依赖公司的自我约束。这是一个典型的“发展优先”信号,预示着AI领域将迎来更激烈的市场争夺和更快速的产品演化。


背景资料 (原快讯)

Anthropic 已从其负责任扩展政策中移除一项核心安全承诺,不再承诺在风险缓解措施未完全到位时暂停训练。Anthropic 首席科学官 Jared Kaplan 对 TIME 表示,在 AI 快速发展的背景下,若竞争对手持续推进,单方面作出停训承诺并无实际意义。

OpenAI 同样修改了其使命声明,在 2024 年 IRS 文件中删除了“safely”一词,此前表述为构建“safely benefits humanity”的通用 AI,现改为“确保通用 AI 惠及全人类”。

RAND Corporation 高级政策研究员 Edward Geist 表示,早期 AI 安全倡导者所设想的高级 AI 与当前大语言模型存在本质差异,术语变化也反映出企业希望向投资者和政策制定者传递其不会因安全顾虑而在经济竞争中退缩的信号。

Anthropic 近期完成 300 亿美元融资,估值约 3800 亿美元;OpenAI 正推进一轮由 Amazon、Microsoft 和 Nvidia 支持的最高达 1000 亿美元的融资。与此同时,Anthropic 因拒绝向五角大楼全面开放 Claude 访问权限,与美国国防部长 Pete Hegseth 产生公开分歧,其国防合同面临不确定性。(Decrypt)

注:以上背景资料自公开行业资讯,加密百科网仅作科普解读。