Gradients:Bittensor生态的去中心化AI训练基础设施

Favoritecollect
Shareshare

Cover

CoinW研究院

摘要

Gradients 是构建在 Bittensor 上的去中心化 AI 训练子网(SN56),其核心在于通过“任务发布、矿工竞争、验证筛选”等机制,将模型训练从复杂的技术流程转化为由市场驱动的网络协作过程。在架构上,它结合 AutoML 与分布式算力,形成一个以激励机制为核心的训练市场,不仅降低了 AI 使用门槛,也提升了算力利用效率。从生态与数据表现来看,Gradients 已完成基础网络搭建,但目前激励权重与资金流入相对有限。Gradients 补齐了 TAO 生态中的训练基础设施,并探索“市场驱动 AI 优化”的新范式,长期有潜力发展为去中心化 AI 训练的重要入口层。

1.从 Web2 AutoML 说起: AI 训练的现状与局限

1.1 什么是 AutoML

在传统认知中,训练一个AI模型是一件门槛很高的事情,需要工程师处理数据、选择模型、反复调参数,还要评估效果,整个过程复杂且耗时。而 AutoML(自动化机器学习)的出现,本质上就是把这些繁琐步骤“打包自动化”。可以把它理解为一个“自动做模型的工具”:用户只需要提供数据,并告诉系统想要达成的目标,比如分类、预测或识别,剩下的流程包括选模型、调参数、训练优化,都由系统自动完成。这让 AI 从少数专业工程师的工具,逐渐变成普通开发者甚至企业都可以使用的能力,是 AI 走向普及的重要一步。

1.2 传统 AutoML 的核心局限

目前 AutoML 的主流实现方式集中在云厂商平台,例如 Google Vertex AI 和 AWS SageMaker,这些平台提供“AI训练即服务”。尽管 Web2 AutoML 显著降低了 AI 使用门槛,但其底层模式仍存在明显局限。首先是中心化问题,算力、定价与规则均由平台掌控,用户对单一服务商依赖较强,缺乏议价能力。其次是成本高且不透明,AI 训练依赖的 GPU 资源主要集中在云厂商手中,价格机制缺乏市场化竞争。更关键的是,优化效率存在上限。传统 AutoML 本质上仍然是“一个系统在帮你找最优解”,无论这个系统多么复杂,本质上都属于单一技术路径的优化。它的探索空间是有限的,很难同时尝试多种完全不同的思路。因此当前的 Web2 AI 训练是一个“封闭系统”,模型的训练、优化和资源调度,都发生在一个由单一平台控制的环境中。这种模式虽高效,但随着需求增长,其边界正逐渐显现。

2.Gradients:用“网络”重构 AI 训练

2.1 Gradients 是什么:一个去中心化的 AutoML 平台

在上一章节中我们提到,传统 Web2 AutoML 的核心问题在于“封闭系统”,模型训练依赖平台、优化路径有限、资源流动受限。Gradients 正是对这一模式的一种重构。Gradients 起源于由 WanderingWeights 发起的去中心化工程师社区,构建在 Bittensor 网络之上,是运行于 Subnet 56 的 AI 训练子网。与传统平台不同,它并不提供中心化服务,而是将训练过程拆解并交由一个开放网络完成。用户只需定义任务目标,例如模型类型与数据,其余流程包括训练执行、参数优化与结果筛选,均由网络自动完成。在这种模式下,AI 训练从复杂的工程流程被抽象为“提交需求、获取结果”的简单过程,更接近一种通用能力,而非专业门槛极高的技术工作。

2.2 从封闭系统到开放协作:Gradients 解决了什么问题

Gradients 的核心改变,在于将原本封闭在单一平台内部的训练过程,转变为一个开放协作的网络过程。训练任务不再由单一系统完成,而是被分发给多个参与者并行尝试,再通过统一的评估机制筛选出最优结果。这种结构首先降低了对中心化服务商的依赖,使训练建立在分布式算力之上;同时,分散的 GPU 资源被整合进同一个网络,在竞争中形成更接近市场化的资源配置方式。更重要的是,模型优化不再局限于单一路径,而是在多种方法的并行探索中不断逼近更优解,从而提升整体优化上限。

2.3 本质变化:从工具到“训练市场”

在传统 AutoML 中,平台更像是一个工具,通过内部算法帮助用户寻找最优解。而在 Gradients 中,这一过程更接近一个持续运转的“市场”:用户发布需求,不同参与者围绕同一任务展开竞争,并通过评估机制筛选结果。由此,模型性能不再依赖单一系统能力,而是来自多方参与下的持续竞争与迭代。AutoML 也从一个相对封闭的技术优化问题,转变为一个由激励驱动的动态过程,使优化能力可以随着参与者增加不断扩展。这种变化,使 AI 训练开始具备类似市场的自我进化特征。

2.4 在 TAO 生态中的角色:AI 训练基础设施层

在 Bittensor 的子网体系中,不同 Subnet 承担着推理、数据处理与训练等不同功能,而 Gradients 所处的位置是训练层。它负责将分散的算力转化为实际模型产出,并通过任务分发与评估机制,使这些资源能够被持续调度与优化。同时它连接了算力供给与模型需求,使训练从单纯的资源消耗过程,转变为一个可以被组织和优化的网络协作过程。在这一体系中,Gradients 更像是一个中枢环节,将分布式资源转化为可用的 AI 能力,并支撑上层应用的发展。

3.核心架构:AI 训练是如何在网络中完成的

在上一章节中我们提到,Gradients 将 AI 训练从“平台内完成”,转变为“由网络协作完成”。那么,这个网络具体是如何运作的?这一章节的核心,就是把这个过程用更直观的方式拆解清楚。

3.1 分布式训练:一次任务是如何被“多人完成”的

可以把 Gradients 想象成一个持续运行的“训练协作网络”。当用户提交一个训练任务后,这个任务并不会交给某一个系统去完成,而是会同时分发给网络中的多个参与者。这些参与者会基于同一份数据和目标,各自尝试不同的训练方法,并在规定时间内提交结果。随后,系统会对这些结果进行统一评估,从中筛选出表现最好的方案。最终,表现更优的结果获得奖励,而其他方案则被淘汰。从用户视角来看,这一过程只需要发起一次任务,就相当于同时“调用”了多种不同的优化思路,并自动选出了最优解。这种方式的关键不在于单个节点有多强,而在于通过多人并行尝试 + 自动筛选,让结果不断逼近最优。

在这个网络中,主要有三类参与者:用户、矿工与验证者。用户负责提出训练需求;矿工提供算力并尝试不同训练方法;验证者负责评估结果并筛选最优模型。这种分工让训练过程可以持续运行,并不断筛选出更优解。整体上,它构成了一个由“需求、供给、评估”驱动的协作网络。

3.2 市场驱动的 AutoML

在前文的机制拆解中可以看到,Gradients 并不是简单地把 AutoML 搬到链上,而是通过引入多方参与与激励机制,改变了模型优化的底层逻辑。传统 AutoML 依赖单一系统在有限路径中寻找最优解,而在 Gradients 中,这一过程被扩展到整个网络:不同参与者围绕同一任务持续尝试不同方法,并通过统一评估不断筛选与迭代。这使得模型优化不再是一次性的计算过程,而是一个可以反复演进的动态过程。在这种机制下,性能更优的结果会获得更高收益,从而持续吸引参与者优化策略,推动整体效果不断提升。

4.激励与竞争机制:AI 训练如何形成“正循环”

4.1 激励机制(TAO驱动):从训练行为到收益回报

Gradients 能够长期运转的关键在于背后的激励机制。这一点依赖于 Bittensor 提供的原生激励体系。其中, TAO 是 Bittensor 网络的原生代币,是整个网络中的“价值载体”:一方面用于奖励提供算力与模型贡献的参与者,另一方面也通过质押等方式参与子网权重的分配,影响资源如何在不同子网之间流动。

Bittensor 主网会持续产生新的激励 Emission 即 TAO(目前每天的适当量约为3600TAO),并按照一定规则分配给不同子网。每个子网能分到多少,取决于它在整个网络中的“表现”,比如活跃程度、贡献质量以及资金支持情况等。对于 Gradients 所在的子网来说,这部分分配到的 TAO 会在内部再次分配给参与者。分配的核心依据是谁贡献的模型更好,谁就能获得更多收益。

具体来看,矿工提交训练结果,验证者负责对这些结果进行测试和打分。系统会根据评分情况,计算出每个参与者的“贡献权重”,再按照这个权重分配奖励。表现更好的模型(例如泛化能力更强、效果更稳定)会获得更高收益,而验证者如果评分更准确、更能反映真实质量,也会获得更多激励。这种设计让“做得更好”直接对应“赚得更多”,从而驱动参与者不断优化模型。

4.2 子网之间的竞争:不仅是内部竞争,更是外部排名

除了子网内部的竞争,Gradients 还面临整个 Bittensor 网络中的“横向竞争”。由于 TAO 的分配是动态的,不同子网之间会争夺更高的权重。只有那些持续产出高质量结果、吸引更多参与者的子网,才能获得更大的奖励份额。因此,Gradients 的激励不仅取决于内部模型表现,还取决于它在整个生态中的相对竞争力。整个系统形成了一个多层次的循环:子网内部有模型之间竞争;子网之间有整体的表现竞争。最终,算力投入、模型效果与经济回报被绑定在一起,形成一个持续运转的正反馈机制。

4.3 Gradients 5.0:从竞争到“锦标赛机制”

在早期的持续竞争基础上,Gradients 进一步演进出更结构化的机制,即“锦标赛式训练”。可以把它理解为一种周期性的比赛:每一轮训练都会设定时间窗口,多个参与者围绕同一任务展开竞争,并通过多轮筛选逐步淘汰,最终选出最优方案。这种形式强调阶段性对比和集中评估。一个重要变化在于,矿工不再直接提交训练结果,而是提交“训练方法”(代码),再由验证节点统一执行。这样做一方面提高了公平性,避免不同计算环境带来的干扰,另一方面也更好地保护了数据和训练过程的隐私。此外,优胜方案往往会被沉淀下来,成为可复用的方法,类似不断积累的“最佳实践”。长期来看,这种机制不仅是在筛选最优模型,也是在构建一个不断进化的训练方法库。

5.生态现状

5.1 参与者结构:由需求、供给与评估构成的协作网络

Gradients 生态由三类核心角色构成:用户(需求侧)、矿工(供给侧)与验证者(评估侧)。用户主要包括 AI 开发者、中小企业及 Web3 builder,这类群体通常具备一定技术基础,但缺乏算力或完整的模型训练能力,因此更倾向于通过 Gradients 以较低成本完成模型构建。矿工则提供 GPU 算力并参与训练任务的竞争,其核心动机在于获取 TAO 收益;验证者负责对训练结果进行评估与排序,是确保模型质量与机制有效运转的关键一环。

从更细分的用户画像来看,Gradients 的实际使用群体呈现出明显的“半开发者化”特征:既不同于顶级 AI 实验室,也并非完全无技术背景的普通用户,而是以具备一定工程能力的开发者与 Web3 技术用户为主。这一点也体现在其社区结构上,当前生态以英文为主导,核心用户主要分布在北美与欧洲的开发者群体,同时覆盖部分东南亚矿工与全球 GPU 资源提供者。整体而言接近一个技术驱动的开发者社区。

5.2 生态运行现状

截至 5 月 12 日,Gradients 的 alpha token 价格约为 0.0255 TAO,持币地址约 4,890 个,矿工 243 个、验证者 12 个,Emission 占比为 1.61%。同时,其流动性池中 TAO 占比为 2.19%,Alpha 占比为 97.81%。从价格与持币数来看,Gradients 已具备一定用户基础与关注度,但整体仍处于早期扩散阶段。对比TAO生态中的头部项目Chutes,当日 alpha token价格是0.0877 TAO,持币地址为13,409个。

Figure 1. Gradients data. Source: https://bittensormarketcap.com/subnets/56

其次是Emission激励机制。在 Bittensor 体系中,Emission 指该子网在全网新增奖励中的实时分配权重。Bittensor 网络会持续产生新的 TAO ,并按权重分配给各个子网,而 Gradients 当前的 1.61%,意味着其仅获得全网新增激励中的一小部分份额。该指标本质上反映的是市场通过资金流(如 staking)对不同子网进行的“投票结果”。因此,1.61% 的水平通常意味着当前市场认可度与资金流入相对有限,另一方面也意味着其未来仍存在提升权重的空间。从资金结构(流动性池)来看,TAO 占比仅 2.19%,而 Alpha 高达 97.81%,说明外部资金流入仍然有限,当前更多是子网内部供给主导。价格对新增资金较为敏感,一旦有更多 TAO 流入,可能带来更明显的放大效应。

6.竞争格局与优劣势

6.1 行业定位:去中心化 AutoML 的训练基础设施

Gradients 所处的是“AI 训练基础设施 + 去中心化 AutoML”这一细分赛道。它试图将模型训练从中心化平台中释放出来,并通过网络化机制实现更高效的资源利用与模型优化。在 Web2 体系中,这一赛道已经相对成熟,典型代表包括 Google Vertex AI 和 AWS SageMaker。这些平台通过云计算为开发者提供一站式模型训练与部署服务,但其本质仍是中心化架构。相比之下,Gradients 的差异不在于“功能更多”,而在于底层逻辑不同:它将训练从“平台服务”转变为“网络协作”,并通过竞争机制筛选最优结果,使其更接近一个市场化运作的训练系统。

6.2 横向对比:Web2 与 Web3 AutoML 的差异

从更宏观的角度看,Web2 与 Web3 在 AutoML 方向上的差异,本质是两种不同范式的对比。Web2 模式强调效率与稳定性,通过集中资源与工程优化,提供可控且成熟的服务体验;而 Web3 模式则更强调开放性与激励机制,通过引入多方参与,让模型优化在竞争中不断演进。具体来看,Web2 AutoML 更像是“一个强大的工具”,用户将任务交给平台,由系统内部完成最优解搜索;而以 Gradients 为代表的 Web3 AutoML,则更像是“一个开放市场”,用户发布需求,由不同参与者提供解法,再通过评估机制筛选结果。这种差异带来的直接影响在于:前者更稳定、可控,但优化路径有限;后者探索空间更大,潜在上限更高,但在稳定性与成熟度上仍有提升空间。

6.3 Web3 中 Gradients 的差异化

在当前 Web3 AI 赛道中,大多数项目仍集中在推理层或 AI Agent 方向,而专注于“训练基础设施”的项目相对较少。部分项目尝试结合算力网络或数据网络提供训练能力,但整体来看,多数仍停留在资源调度或算力市场层面。Gradients 的差异在于,它不仅仅提供算力撮合,而是进一步向上延伸到“模型优化机制”本身,通过引入评估与竞争体系,使训练过程具备持续演进能力。这意味着,它不仅在解决“算力从哪里来”,还在解决“如何更高效地用这些算力”。从定位上看,Gradients 更接近一个“训练结果导向”的网络,而不是单纯的算力市场或工具平台,这也是其与多数 Web3 AI 项目的核心区别。

6.4 核心优势:机制驱动的效率提升

综合来看,Gradients 的优势主要体现在其机制设计上。首先,它通过任务抽象降低了使用门槛,使用户无需深入参与复杂训练流程,也能获得模型结果,从而扩大了潜在用户群体。其次,在资源层面,分布式算力的引入,使训练不再依赖单一云厂商,理论上可以通过竞争形成更具弹性的成本结构。更重要的是其优化方式的变化。通过多参与者并行探索并结合筛选机制,Gradients 提供了一种不同于传统单路径优化的方案,使模型有机会在更短时间内达到更优性能。这种“竞争驱动优化”的模式,是其最核心的优势所在。

6.5 潜在挑战

模型质量可能存在稳定性问题。去中心化训练依赖多方参与,虽然可以提升上限,但也可能带来结果波动,相比中心化体系,在可控性上存在一定不确定性。其次是企业级信任问题。对于企业用户而言,数据安全与训练过程的可验证性至关重要,而去中心化环境下如何确保数据不被滥用、结果可被审计,仍是关键考验。最后是对 Token 经济的依赖。Gradients 的运转高度依赖激励机制,如果 TAO 收益吸引力下降,可能影响矿工参与度与整体网络活跃性。因此,其长期可持续性在一定程度上取决于经济模型是否能够形成稳定正循环。

7.未来展望:去中心化 AutoML 能否成立?

从当前阶段来看,Gradients 仍处在早期,其未来能否真正跑通,取决于几个关键点。最核心的是是否能持续吸引真实训练需求,而不仅是围绕激励的参与;其次是模型质量,去中心化方式能否稳定产出可用、甚至更优的结果;以及经济机制是否能够形成正循环,让算力供给与收益之间保持长期平衡。

放在更大的行业背景中,AI 训练正在分化出两种路径。一种是 Web2 模式,由头部科技公司主导,通过集中资源与工程能力不断强化模型性能,优势在于稳定和成熟;另一种则是以 Gradients 为代表的 Web3 路径,通过开放网络与激励机制,让更多参与者共同参与模型优化,在竞争中不断提升上限。前者是在“打造更强系统”,后者更像是在“构建一个会自我进化的网络”。

从这个角度看,Gradients 的探索代表了一种新的可能性: AI 训练不再只是技术问题,而是“算力 + 数据 + 市场机制”的结合。如果这一模式能够成立,它有潜力成为去中心化 AI 的训练入口,并在 Bittensor 生态中扮演关键基础设施角色。当然,这一方向仍需要时间验证,但它已经为 AutoML 提供了一条不同于传统路径的演进思路。

Disclaimer: This article is copyrighted by the original author and does not represent MyToken’s views and positions. If you have any questions regarding content or copyright, please contact us.(www.mytokencap.com)contact
More exciting content is available on
X(https://x.com/MyTokencap)
or join the community to learn more:MyToken-English Telegram Group
https://t.me/mytokenGroup