国家安全部发布“龙虾”(OpenClaw)安全养殖手册 | 加密百科深度分析
加密百科独家解读
这件事本质上是一份来自官方的“AI智能体安全警告”,只不过用了一个“养龙虾”的比喻。这里的“龙虾”指的就是类似OpenAI的Claude、GPTs或者任何能联网、能执行任务的AI智能体(OpenClaw是一个代称)。
为什么现在(2026年)官方要专门发布这个?因为经过几年发展,AI智能体已经像当年的公链和DeFi应用一样,变得非常普及和强大。它们能帮你操作钱包、管理数据、自动发帖,但安全风险也急剧放大。
手册里说的几个风险,翻译成加密和Web3用户能懂的话就是:
1. 主机被接管:相当于你的私钥助记词保管设备(比如专用手机或硬件钱包)被黑了。攻击者控制了运行AI的环境,就能为所欲为。
2. 数据被窃取:你让AI智能体分析你的钱包资产、交易历史或链上数据,如果它本身不安全,这些敏感信息就全部泄露了。
3. 言论被篡改:你授权AI管理你的社交媒体或社区账户,它可能被劫持发布虚假信息、恶意链接,进行诈骗或舆论操纵。
4. 技术有漏洞:AI智能体本身代码可能有后门或漏洞,就像有漏洞的智能合约,随时可能被利用。
手册给出的安全指南,核心原则和保管加密资产完全一致:
检查控制界面是否暴露公网:就像不要把钱包的私钥管理后台(如MetaMask的管理界面)直接暴露在没防火墙的服务器上。AI的控制台必须隔离。
权限配置是否过高:绝对不要给AI智能体“超级权限”。让它操作钱包时,必须像使用多签或限额交易一样,只给完成特定任务所需的最小权限。比如只允许它读取某个地址的余额,绝不能允许它无需确认就转账。
存储的凭证是否泄露:你授权给AI的API密钥、钱包签名权限等,就是它的“凭证”。必须定期检查更换,防止这些凭证在传输或存储过程中被盗。
安装的插件来源是否可信:AI智能体可以加载各种插件来增强功能,这就像给钱包安装第三方插件或连接新的DApp。必须极度谨慎,来源不明的插件可能就是木马。
当前,比特币减半完成和以太坊坎昆升级早已成为现实,网络基础层相对成熟,但应用层的安全,尤其是与AI深度结合的应用,成了新的薄弱环节。这份手册的发布,是一个明确的信号:随着AI智能体深度融入数字生活(包括加密世界),用户必须将保护私钥的警惕性,同等用于管理你的AI代理权限。一旦发现你使用的AI智能体有异常,最直接的办法就是像对待被盗钱包一样——立即切断它的所有访问权限(隔离、下线)。
背景资料 (原快讯)
国家安全部公众号发布“龙虾”(OpenClaw)安全养殖手册,其中提出养“龙虾”的风险隐患包括主机可能被接管、数据可能被窃取、言论可能被篡改、技术可能有漏洞,安全指南提出检查控制界面是否暴露在公网、权限配置是否过高、存储的凭证是否已泄露、安装的插件来源是否可信等问题;必须遵循最小权限原则,严格限制智能体的操作范围;对于严重安全风险,请立即采取隔离、下线等处置措施。
注:以上背景资料自公开行业资讯,加密百科网仅作科普解读。
