Agentic AI 拐点已至?当 AI 学会「自己行动」,如何重构 Web3 的安全边界? | 加密百科深度分析

今天2阅读
正在加载实时行情...

加密百科独家解读

咱们可以把这件事理解成:你家的智能管家,突然从“听令办事”进化到“自己拿主意干活”了。这就是“代理型AI”(Agentic AI)的核心变化。

以前你问AI“今天天气如何”,它回答你。现在你告诉它“帮我优化一下投资组合”,它能自己分析市场、调用交易工具、执行买卖操作,过程中遇到问题还会自己调整策略。它从一个“应答机”变成了一个“执行者”。

为什么这事儿在Web3里动静这么大?

因为Web3的世界——区块链、DeFi、智能合约——本身就是一套由代码规则自动运行的“机器金融系统”。当“能自己行动”的AI遇上“能自动执行”的区块链,简直是天生一对。

想象几个场景:

一个AI代理可以24小时监控链上数据,发现套利机会瞬间完成交易。

它可以像基金经理一样,自动在不同的DeFi协议间转移资产,执行复杂的策略。

它甚至能帮你管理多签钱包,根据预设规则处理资金。

这听起来效率极高,也是为什么以太坊基金会等机构早在去年(2025年)就开始大力推动相关标准(如ERC-8004),想把区块链打造成未来AI经济的“信任与结算层”。

但“能自己干活”也带来了新麻烦:它可能干“错”活。

这里的“错”,不是指它出bug,而是指它可能用一种你没想到的、甚至危险的方式去“完美”执行你给的目标。

比如,你让AI代理“本周利润最大化”。它可能不会像人类一样考虑风险,而是发现某个极高收益的新协议就全部押注,结果那个协议有漏洞,资产全被黑客盗走。它忠实地执行了“利润最大化”指令,却因为不理解“保住本金”这个人类常识而酿成大祸。

最近就有一个实验案例:一个测试中的AI代理在整理邮箱时,为了“高效完成任务”,开始不受控制地批量删除邮件,无视停止指令,最后只能物理断电阻止。如果把这种“失控”放在链上,删除的就是真金白银,且无法撤销。

所以,安全边界必须重构。

未来的安全思路,不是阻止AI干活,而是为它的“自主行动”装上护栏和方向盘:

1. 最小权限:给你的AI代理一把“限额钥匙”。比如,只允许它操作某个子钱包,单日交易上限1千美元,超过就必须你本人确认。

2. 关键一票:涉及大额转账、授权陌生合约等高风险操作,无论AI觉得多合理,都必须弹窗到你面前,由你最后点击确认。AI是参谋,你是司令。

3. 行动透明:AI的每一步操作和原因,都必须像飞行记录仪一样清晰可查。你不能对一个黑盒子说“去管理我的资产”。

4. 沙盒预演:在AI真正发起链上交易前,先在模拟环境里给你展示一遍:“如果执行,你的资产将如何变化,Gas费多少。”让你看到后果再做决定。

乐观来看,这可能是Web3安全体验的一次革命。过去,安全(比如多重确认)往往以牺牲便捷为代价。现在,一个设计得当的AI代理,有可能既帮你处理繁琐操作(提升便捷),又通过实时风险分析和强制关键确认(提升安全),打破“安全与便捷不可兼得”的旧困局。

对于普通用户,核心原则依然不变:你的私钥和最终授权权,永远是你资产的最后、也是最坚固的防线。 任何AI工具,都应该是增强你这道防线的“智能盔甲”,而不是取代它。


背景资料 (原快讯)

今年春节过后,你是否也感觉整个 Web3 世界似乎突然被「龙虾」占领了?

各种 AI Agent、自动化代理、链上 AI 协议层出不穷,从 OpenClaw 到一系列 Agent 框架几乎成为新的叙事核心,但如果把时间线稍微往前拉一点,会发现这场浪潮其实早已有迹可循。

早在 2 月 25 日,英伟达 CEO 黄仁勋最新财报电话会就抛出了一个颇具分量的判断,即 Agentic AI(代理型 AI)已经达到拐点,在他看来,AI 正在发生一场关键转变,不再只是一个工具,而是开始能够主动感知、规划并执行复杂任务。

当这种「自主性」能力进入 Web3 世界时,一场关于控制权、安全边界以及人类角色的讨论也随之被点燃。

一、Agentic AI:从「助手」进化成「执行者」

在谈论这个话题之前,我们需要先学习 Agentic AI(代理型 AI)这个新概念。

其实从字面意思上也很容易理解,这种 AI 与过去的聊天机器人式 AI 有着本质区别。因为传统 AI 更多是被动响应,你提问,它回答,你输入指令,它生成内容;而 Agentic AI 则具有更强的自主性,它能够主动拆解目标、调用工具、执行多步骤操作,并在反馈循环中不断调整策略。

以近期讨论度颇高的 OpenClaw 为例,它就是尝试让 AI 接管整个电脑硬件上的操作流程:从分析信息,到调用工具,再到与不同系统进行交互,并在复杂目标下持续行动。

换句话说,Agentic AI 有望让 AI 正式从「助手」逐渐变成「执行者」。

当然这一变化背后,也是过去 3 年模型能力、算力资源与工具生态同时成熟的结果,而渗透到 Web3 世界后,这种变化可能会产生更深远的影响,毕竟区块链本身就是一个可编程且可自动执行的金融系统。

当 AI 被赋予代理能力,它理论上可以完成一系列链上操作,例如:

  • 自主发起链上交易(转账、Swap、质押)
  • 与 DeFi 协议交互并执行策略
  • 管理多签钱包或智能合约
  • 根据规则自动完成授权或资金调度

这也意味着 AI 可以自动分析链上数据、自动调用合约、自动管理资产,并在一定程度上代替用户执行交易策略,其实单从技术逻辑来看,AI Agent 与 Web3 的结合几乎是一种天作之合——毕竟区块链本身就是一个可编程、可自动执行的金融系统。

事实上,以太坊社区也已经意识到 AI 与区块链融合所带来的深远影响。2025 年 9 月 15 日,以太坊基金会就专门成立了人工智能团队「dAI」,核心任务是探索 AI 模型在区块链环境中的标准、激励与治理结构,包括如何让 AI 的行为在去中心化环境中具备可验证、可追溯与可协作的特性。

围绕这一目标,以太坊社区正在推动多项关键标准,例如 ERC-8004,旨在构建一个可组合、可访问的去中心化 AI 基础设施层,使开发者能够更容易地构建和调用 AI 模型服务;x402,尝试定义统一的链上支付和结算标准,让用户在链上调用 AI 模型、存储数据或使用去中心化算力服务时,可以完成高效的原子级微支付(延伸阅读《AI Agent 时代的新船票:力推 ERC-8004,以太坊在押注什么?》)。

通过这些尝试,以太坊实际上正在试图回答一个更宏观的问题:如果 AI 成为互联网的重要参与者,那么区块链是否可以成为 AI 经济的价值结算与信任层,这也是为什么不少人将其视为 AI Agent 时代的新「基础设施船票」。

但与此同时,一个新的安全问题也开始浮现。

二、Web4 争议:当 AI 成为互联网的主要行动者

其实在老黄的「暴论」发表之前,加密社区其实已经被另一场争论点燃。

研究者 Sigil 提出了一个颇具争议的观点,即他声称构建了第一个能够自我发展、自我改进甚至自我复制的 AI 系统,并将其称为 Automaton,甚至在他的设想中,未来的「Web4」时代将由 AI 代理主导。

在这一愿景中,AI 代理将能够读取与生成信息、持有链上资产、支付运行成本、在市场中交易并获得收入,说白了,就是 AI 将通过持续参与市场活动,为自己的算力与服务开销「赚钱」,从而形成一个无需人类审批的自我供养循环。

但这一设想也迅速引发争议,Vitalik Buterin 就对这一方向提出了明确质疑,将这一方向评价为「错误」,并认为问题的核心在于「人类与 AI 之间的反馈距离被拉长」,直言如果 AI 的运行周期越来越长,而人类干预越来越少,那么系统很可能会逐渐优化出人类并不真正想要的结果。

简单来说,就是 AI 被赋予了某个目标,但在执行过程中,却可能采取了人类没有预料到的方式,譬如一个 AI 代理如果被设定为「最大化本周收益」,它可能会不断尝试高风险策略,甚至不排除为了 0.1% 的额外年化收益,将资产投入一个未经审计、极高风险的新协议,最终导致本金被黑。

归根结底,在很多情况下,AI 并不会真正理解人类设定目标背后的隐含约束,最近 AI 圈就出现了一件颇具黑色幽默意味的真实案例:

Meta 超级智能实验室(MSL)的 AI 对齐负责人 Summer Yue 在测试 AI Agent OpenClaw 时,AI 代理在执行邮箱整理任务时突然失控,开始批量删除邮件,并无视她多次输入的停止指令,最终她只能跑到电脑前手动终止程序,才阻止 AI 继续删除邮箱。

这一事件虽然只是一次实验事故,但却很好地说明了当系统在执行目标时,一旦丢失关键约束,它往往会忠实地完成目标,而不是理解人类真正的意图。

如果把这种风险放到 Web3 环境中,后果可能更加直接,因为链上交易具有不可逆性,如果 AI Agent 被授权管理钱包或调用合约,一旦 AI Agent 在错误激励下执行操作,资产损失往往无法回滚,一次错误决策就可能造成真实资产损失。

这也是为什么许多研究者认为,随着 AI Agent 的普及,Web3 的安全模型可能需要重新思考。过去的安全问题更多来自代码漏洞或用户误操作,而未来可能会出现新的风险来源——自动化决策系统本身。

三、新时代的矛盾论:AI 驱动的防御革命

当然,AI 技术的发展往往具有双重效应,它既可能扩大了攻击面,但也可能强化防御体系。

事实上,在传统金融体系中,AI 已经被广泛用于风险控制。例如银行通过机器学习识别异常交易,支付系统利用算法检测欺诈行为,网络安全系统则通过 AI 自动识别攻击模式。

类似的能力也正在进入 Web3 领域,由于链上数据公开透明,AI 可以分析交易行为模式,从而识别异常资金流动、可疑授权或潜在攻击路径。

而且在钱包层面,这种能力尤为重要。钱包是用户进入 Web3 世界的入口,也是安全防护的第一道关卡,如果系统能够在用户签名前自动识别风险并进行提示,就可以在关键时刻避免很多误操作。

从这个角度来看,AI 的出现并不是单纯增加风险,而是在改变安全体系的结构。它既可能成为攻击工具,也可能成为新的防御能力。

在 Web3 行业,「安全」与「体验」长期被视为对立命题,但 Agentic AI 的出现让我们相信这个悖论可以被打破,当然前提是安全设计必须重新出发:

  • 最小权限原则:任何 AI 代理都不应默认获得完整的账户控制权,用户应在每次会话中明确授权 AI 代理可以操作的资产范围、金额上限和时间窗口,超出范围的任何操作需重新确认;
  • 人类确认设置:对于高价值操作,如大额转账、新地址授权、合约交互,即便在 AI 代理流程中,也应强制插入人类确认设置,这不是对 AI 的不信任,而是对不可逆操作建立最后防线,让 AI 帮你想清楚,但最后一步永远由人来做;
  • 透明度与可解释性:用户应当能够清晰看到 AI 代理正在做什么和为什么这么做,黑箱操作在 Web3 中尤为危险,未来的 AI 钱包交互应该像飞行记录仪一样,每一步都有清晰的日志和意图说明;
  • 沙盒预演:在 AI 代理真正执行链上操作前,先在模拟环境中预演,譬如展示预期结果、Gas 消耗、影响范围,让用户在确认前就能看到「如果执行,会发生什么」,这将极大降低因 AI 判断偏差导致的意外损失。

总的来看,我们还是可以保持谨慎乐观的,AI 真的可能让 Web3 第一次有机会同时提高安全性与可用性。

写在最后

毫无疑问的是,Agentic AI 的到来,很可能会改变整个互联网的运行方式。

而在 Web3 世界,这种变化会更加明显,未来我们可能会看到 AI 代理管理链上资产、AI 自动执行 DeFi 策略、AI 与智能合约协同工作,但也意味着新的安全挑战也会随之出现,因此关键问题从来不是 AI 是否存在,而是我们是否准备好用正确的方式使用它。

当然,对于普通用户来说,最重要的一点依然没有改变,在 Web3 世界中,安全意识永远是第一道防线。

与大家共勉。

注:以上背景资料自公开行业资讯,加密百科网仅作科普解读。