AI黑话词典(2026年3月版),建议收藏 | 加密百科深度分析

今天2阅读
正在加载实时行情...

加密百科独家解读

这份“黑话词典”能火,恰恰说明AI和加密的融合已经到了一个新阶段。以前是“区块链+”,现在是“AI+”,但本质没变:新概念催生新叙事,新叙事带来新机会和泡沫。看懂这些词,你才能看懂现在项目方在炒什么。

这不是技术指南,这是“叙事地图”

里面很多词,比如Agent、Tool Use、RAG,听起来很技术,但在加密圈语境下,它们代表的是新的可投资赛道和代币经济模型。一个项目如果说自己是“AI Agent”,那它很可能在讲一个“能自动执行复杂链上交易(如DeFi策略)的AI”故事,其代币可能用于支付AI服务或治理。MCP(模型上下文协议) 这种新黑话,很可能成为下一个“让AI安全连接钱包和链上工具”的基础设施标准,谁先做出协议,谁就可能捕获价值。

“Gas单位”思维已经渗透AI

文章里把Token比作Gas,非常精准。这揭示了AI经济的核心:消耗即挖矿。AI模型的每一次推理(Inference)都在燃烧算力,这就像链上交易燃烧Gas。未来,AI服务的计费、算力市场的支付、甚至AI代理的激励,都可能用一种或多种代币来结算。那句“训练很贵,推理更费钱”,直接点明了AI商业化后,持续性的推理成本会催生巨大的去中心化算力市场,这正是很多加密AI项目在争夺的战场。

解决“幻觉”,就是解决信任问题

Hallucination(机器幻觉) 和 Grounding(事实对齐) 是AI的老大难问题。在加密世界,这问题更致命。如果一个AI Agent基于幻觉执行了一笔错误交易,损失谁来承担?因此,RAG(检索增强生成) 和护栏(Guardrails) 技术变得至关重要。它们相当于给AI加上了“预言机”和“风控合约”,确保其决策基于可信的链上或现实数据。能解决这个问题的项目,才可能真正被大规模采用。

新工作流催生新应用

Agentic Workflow(智能体式工作流) 和 Vibe Coding(氛围编程) 描述了一种未来:用户用自然语言下达复杂指令,由AI智能体(Agent)拆解任务、调用各种工具(Tool Calling)自动完成。映射到加密世界,可能就是“用户说‘帮我找到最优的跨链流动性挖矿策略并执行’,然后一个由多个子智能体(Subagents) 组成的系统就去自动分析、执行和监控了”。这会让链上交互门槛极大降低,但也对安全提出了极高要求。

参数大战与效率之争

Parameters(参数) 的比拼,就像当年比较区块链的TPS(每秒交易数),是营销噱头也是技术竞赛。但另一方面,SLM(小语言模型)、蒸馏(Distillation) 的兴起,反映了市场对成本、效率和本地化部署的追求。这对应着加密领域的“Layer2”和模块化区块链叙事——在保证足够能力的前提下,更便宜、更快、更专用才是落地关键。能在特定垂直领域(如智能合约审计、链上数据分析)做出高效小模型的团队,可能比一味追求大参数的项目更有投资价值。

这份词典是你拆解当下“AI+Crypto”项目白皮书的必备工具。当一个项目把这些词组合进它的叙事时,你就能更快地看穿:它到底是在解决核心问题,还是在制造概念泡沫。


背景资料 (原快讯)

原创 | Odaily (@OdailyChina

作者|Golem(@web 3_golem

现在,币圈人要是不关注 AI,很容易遭群嘲(对,我的朋友,想想你为啥会点进来)。

你是否对 AI 的基础概念一窍不通,每句话里的缩写都问下豆包啥意思啊?你又是否在 AI 线下活动中对各种专有名词一头雾水,还要假装没掉线?

虽然在短时间内一脚跨入 AI 行业不现实,但知道下 AI 行业高频基础词汇总是不亏的。幸运了,接下来这篇文章就是为你准备的↓真诚建议你熟读并收藏。

基础词汇(12)

LLM(大语言模型

LLM 核心是用海量数据训练出来、擅长理解和生成语言的深度学习模型,它能处理文本,现在也越来越能处理其他类型内容。

与之相对的是 SLM(小语言模型)——通常强调成本更低、部署更轻、本地化更方便的语言模型。

AI Agent(AI 智能体)

AI Agent 指的不只是“会聊天的模型”,而是能理解目标、调用工具、分步执行任务、必要时还能做规划和验证的系统。Google 将 agent 定义为能基于多模态输入进行推理并代用户执行动作的软件。

Multimodal(多模态)

其 AI 模型不是只读文字,而是能同时处理文本、图片、音频、视频等多种输入输出形式。Google 明确把多模态定义为处理和生成不同类型内容的能力。

Prompt(提示词)

用户给模型输入的指令,是最基础的人机交互方式。

Generative AI(生成式 AI / AIGC)

强调 AI“生成”而不是单纯分类或预测,生成式模型可以根据 prompt 生成文本、代码、图像、表情包、视频等内容。

Token(令牌)

这是 AI 圈最像“Gas 单位”的概念之一。模型不是按“字数”理解内容,而是按 token 处理输入输出,计费、上下文长度、响应速度,通常都和 token 强相关。

Context Window(上下文窗口 / 上下文长度)

指模型一次性能“看到”和利用的 token 总量,也可称为模型在单次处理时能考虑或“记住”的 token 数量。

Memory(记忆)

让模型或 Agent 保留用户偏好、任务上下文、历史状态。

Training(训练)

模型从数据中学习参数的过程。

Inference(推理执行)

和训练相对,指模型上线后接收输入并生成输出的过程。行业里常说“训练很贵,推理更费钱”,因为真实商业化阶段很多成本发生在 inference。相关训练/推理区分也是主流厂商讨论部署成本时的基础框架。

Tool Use / Tool Calling(工具调用)

意思是模型不只输出文字,而是可以去调用搜索、代码执行、数据库、外部 API 等工具,这已经被当成 Agent 的关键能力之一。

API(接口)

AI 产品、应用、Agent 接第三方服务时的基础设施。

进阶词汇(18)

transformer(变换器架构)

一种让 AI 更擅长理解上下文关系的模型架构,也是今天大多数大语言模型的技术底座,最大的特点是能同时看整段内容里每个词和其他词的关系。

Attention(注意力机制)

它是 Transformer 最关键的核心机制,作用就是让模型在读一句话时,自动判断“哪些词最值得重点看”。

Agentic / Agentic Workflow(智能体式 / Agent 化工作流)

这是最近很热的说法,意思是一个系统不再只是“一问一答”,而是带有一定自主性地拆解任务、决定下一步、调用外部能力。很多厂商把它当成“从 Chatbot 走向可执行系统”的标志。

Subagents(子智能体)

一个 Agent 再拆出多个专职小 Agent 去处理子任务。

Skills(可复用能力模块)

随着 OpenClaw 爆火,这个词近明显变得常见,这是给 AI Agent 的可安装、可复用、可组合的能力单元/操作说明书,但也特别提醒有工具滥用和数据暴露风险。

Hallucination(机器幻觉)

意为模型一本正经地胡说八道,“感知到并不存在的模式”从而生成错误或荒谬输出,这是模型看似合理、实则错误的过度自信输出。

Latency(延迟)

模型从收到请求到输出结果所花的时间,属于最常见的工程黑话之一,一聊落地和产品化就会频繁出现。

Guardrails(护栏)

用于限制模型/Agent 能做什么、什么时候停、什么内容不能输出。

Vibe Coding(氛围编程)

这个词也是如今最火爆的 AI 黑话,意为用户直接靠对话表达需求,AI 来写代码,而用户不需要具体懂如何写代码。

Parameters(参数)

模型内部用于存储能力和知识的数字规模,常被用来粗暴衡量模型体量,“百亿参数”“千亿参数”都是 AI 圈最常见的唬人说法。

Reasoning Model(强推理模型)

它通常指更擅长多步推理、规划、验证、复杂任务执行的模型。

MCP(模型上下文协议)

这是近一年非常热的新黑话,作用类似给模型和外部工具/数据源之间建立通用接口。

Fine-tuning / Tuning(微调)

是在基础模型上继续训练,让它更适应特定任务、风格或领域。Google 术语表直接把 tuning 和 fine-tuning 作为相关概念。

Distillation(蒸馏)

把大模型的能力尽量压缩给小模型,像是让“老师”教会“学生”。

RAG(检索增强生成)

这几乎已经成了企业 AI 的基础配置。微软把它定义为“搜索 + LLM”的模式,用外部数据来给回答做 grounding,解决模型训练数据过时、不了解私有知识库的问题。目的是把回答建立在真实文档和私有知识上,而不是只靠模型自己回忆。

Grounding(事实对齐)

常和 RAG 一起出现,意思是让模型回答建立在文档、数据库、网页等外部依据上,而不是只靠参数记忆“自由发挥”。微软在 RAG 文档中明确把 grounding 作为核心价值。

Embedding(向量嵌入 / 语义向量)

就是把文字、图片、音频等内容编码成高维数字向量,以便做语义相似度计算。

Benchmark(基准测试)

用一套统一标准去测试模型能力的评测方式,也是各家模型最爱拿来“证明自己很强”的排行榜语言。

推荐阅读

龙虾关键11问:最通俗易懂的OpenClaw原理拆解

注:以上背景资料自公开行业资讯,加密百科网仅作科普解读。