软银与Ampere Computing联合测试使用CPU运行小型人工智能模型 | 加密百科深度分析

02-1710阅读
正在加载实时行情...

加密百科独家解读

这件事简单来说,就是科技巨头们正在为AI时代铺一条“省电省钱”的新路。软银和Ampere Computing想证明,处理一些不那么复杂的AI任务(比如手机上的语音助手、智能家居的反应),不一定非得用耗电巨大、价格昂贵的专业AI芯片(GPU),用我们电脑里都有的、更通用的“大脑”——CPU,也能高效完成。

这背后有几个关键点,和加密世界息息相关:

1. 挖矿之后,AI成了新的“耗电巨兽”。

比特币减半后,矿工对能源效率的追求已到极致。而现在,全球数据中心为运行AI模型,电力消耗飙升。如果能让CPU高效跑AI,就能利用现有的大量服务器,无需全部升级成高功耗的GPU,这能大幅降低运营成本和对电网的压力。这对需要大量计算资源的区块链项目(如去中心化AI、渲染网络)来说,是降低成本的潜在福音。

2. “推理”市场是下一个战场。

AI工作分两步:“训练”(用海量数据教AI)和“推理”(用训练好的AI模型实际干活)。训练必须用顶级GPU,但推理,特别是小型、频繁的推理请求(比如分析链上交易模式、处理DeFi策略),对算力要求低,但对响应速度和成本敏感。这个项目瞄准的就是“推理”市场,试图用CPU开辟一个性价比更高的赛道。

3. 对去中心化计算是利好。

如果CPU跑小型AI模型变得高效,那么普通人电脑的闲置算力将更有价值。这可能会推动去中心化计算网络(比如基于区块链的算力市场)的发展,让组建一个覆盖全球、成本低廉的AI推理服务网络成为可能,与亚马逊、谷歌的集中式云服务竞争。

4. 硬件格局可能生变。

目前AI芯片市场几乎被英伟达垄断。软银和Ampere(其芯片基于ARM架构,以高能效著称)的联合测试,是在挑战“跑AI必须用GPU”的固有观念。如果成功,可能会带动一波基于ARM架构的高能效服务器CPU需求,改变数据中心的基础设施,为区块链节点服务器等场景提供更多低功耗选择。

风险与观察点:

这项技术主要针对“小型模型”,对于ChatGPT这类大模型的核心计算仍无力替代。其实际成效还需看测试数据和后续的商用部署情况。但它指明了一个清晰趋势:在AI普及时代,追求极致能效比和性价比的计算方案,将获得巨大市场。


背景资料 (原快讯)

据外媒报道,软银与 Ampere Computing 启动了一个联合项目,旨在提升 CPU 运行小型人工智能模型的效率。两家公司计划打造低时延、高效率的推理环境,作为下一代人工智能基础设施的关键技术。

注:以上背景资料自公开行业资讯,加密百科网仅作科普解读。