
头雁|2025年09月01日 11:05
0G @0G_labs TGE估计快好到来了,之前写过几次0G,基本都是写去中心化算力这个模块,和一些基础的组件,没有系统的完整的看看他的核心特点,今天详细的写写,有点长,都是手打的自己研究的。
定位:0G是模块化的去中心化AI公链
主要研究点:
我研究项目最喜欢看他的定位到底是什么,以及团队情况,今天不写团队了,就重点看定位后的特点和设计,重点研究:
-去中心化AI的价值点在哪
-0G的多共识协议和可验证计算层
-算力部分创新(低通信算力层)
❶当前去中心化AI市场的切入角度:
目前主流市场上的AI基础设施,大部分集中在Agent框架,模型和社区意志对齐方面,单独的去中心化算力等。没有完整的从AI和区块链深度结合的角度进行设计的。0G是我看过的比较完整的从区块链的可扩展性,以及和AI深度融合的的去中心化AI公链。
❷为什么需要去中心化AI?
一个是算力垄断:
现在一个小团队想训练个AI模型成本动则几百万美金,甚至上千万美金,这是小公司小团队很难负担得起的,这就导致了大模型完全变成了垄断型行业,这会导致部分公司控制着危险的AGI进程。如果去中心化算力能因为聚集了分散闲置的低成本算力,使降低模型研发的门槛,也会间接的推动行业发展。
一个是阻碍创新:
另外一点你可以看到今年春节前后deepseek有多火爆,最核心的原因是他开源的研究的很多细节和模型,也开源了不少训练相关的代码。
并且把OPENAI的推理部分的实现开源出来了(这部分openai一直是捂着的,开源社区做了好多分析和可能性,一直是openai领先开源社区半年到1年的时间),这一点引发了开源AI社区大量的后续迭代创新,以至于带动了RL训练的快速发展。可以看到开源开放能更好的带动行业发展,而CLOSEAI捂着藏着,导致RL训练技术被延迟6-12个月得到更多的拓展。
一个是缺少透明度:
当像OPENAI这类企业从非盈利机构转向盈利机构实体时,他在一些核心利益点上不会完全以行业或群体利益为核心的,并且不会把他的核心目的分享出来,这里你可以看到最近1年OPENAI光内部的价值观冲突(比如Ilya Sutskever因为希望更安全为核心的推出AGI的节奏,结果SAM则百般和董事会之间搞信息不对称来加速他以商业产品为核心的推出AGI产品),以及利益冲突,有的核心成员离职是因为某个组的算力分配不公,这说明什么,说明当一家掌握行业发展命脉的公司,他如果不能更好的进行透明化治理这些关系,那么对行业的发展会带来巨大的风险,尤其AGI这种革命性质的产品。
所以区块链能更好的协调和治理这些关系,让很多治理更加透明化,更加以社区群体利益为核心。当然这也需要建立一个好的社区的前提下,因为工具永远只是工具,还是在于使用工具的社区。
❸0G的解决方案和技术架构设计,架构图:
0G采用的是完整的模块化设计思路,分成几个部分:
-0G链:0G 链采用先进的模块化设计,将共识与执行清晰地分离。是专为AI设计的L1区块链。
-0G 计算:提供分散式算力的管理层,去中心化AI最大的问题还是早期的性能问题。
-0G 存储:0G 存储是一个分布式数据存储系统,采用链上设计,旨在激励存储节点代表用户存储数据。任何人都可以运行存储节点并获得维护节点的奖励
-0G DA:0G DA数据可用性主要应用在证明数据易于访问、可验证和可检索,比如在去中心化AI的计算验证时,需要调取DA数据进行验证是否真正的记性了相关计算。
-0G DEPIN:算力和节点等分散式计算资源的的硬件层。
❹下面深入的研究下,0G设计有意思的两大部分,0G链的共识部分和0G的计算部分:
0G多共识部分:
在共识设计上,很难有一个通用的共识协议,可以看到每个新区块链都会在共识协议上不断创新,但是仍然会发现共识协议需求不断的在进化和变化,0G采用了多共识协议,底层是共享了安全质押和共享了验证者集。因为在模块化AI区块链里,有存储网络,有0G数据可用性网络,以及推理网络,这些都会根据这些网络特性,单独设立共识协议。
分类的验证机制:
-推理证明(0G 计算网络):
0G支持分散的GPU网络的计算可验证,避免这些分散的计算机做恶。
--支持opML(机器学习的乐观证明验证)
--zkML(机器学习的零知识证明验证)
--TEEML(机器学习的基于TEE硬件的证明验证)
这里0G相比其他大部分支持以OPML为核心不同,0G支持了多验证机制,可以充分考虑技术成熟度和成本等问题的权衡,尤其zk在zkml发展还不算特别成熟时(最近有些进展https://github.com/ICME-Lab/jolt-atlas,这个团队优化了不少的性能),是一个好的设计方案。
-存储证明:
PoRA 通过要求存储节点快速访问随机存储数据片段,防止它们谎报实际存储的数据。该系统不会惩罚作恶者,而是通过竞争性挖矿流程奖励诚实的存储提供商。该机制包含多项保障措施,以确保只有真正的存储提供商才能有效参与。
0G计算部分:
-可验证计算层:
0G计算是一个分散的GPU机器分散网络组织,所以机器提供者五花八门,无非排除他是否能按用户/开发者的需求执行计算任务,所以0G计算核心环节要能验证计算按需求,并且把不做恶的结果返回给需求方。架构图:
整个架构分为链上(On-chain)和链下(Off-chain) 两部分:
-链上 (Smart contract) 包含 服务注册、用户账户、结算逻辑。
智能合约主要负责验证(签名、nonce、余额)和资金结算(转账)
Smart contract整体流程分为 5步:
服务注册:服务商在链上智能合约里注册“可验证服务”,包括:服务类型、URL、价格。
用户预存款:用户向智能合约里存入一部分费用,用于后续调用服务。
用户请求:用户向服务商发送带签名的请求(包含地址、nonce、服务类型等元数据)。
服务商响应:服务商验证用户余额与请求有效性,返回结果。用户收到结果后自行验证,如果失败就可以停止继续调用。
结算:服务商将包含“请求轨迹 + 用户签名”的零知识证明提交到链上智能合约。
智能合约验证证明 → 检查签名、nonce、余额 → 转账资金给服务商。
-链下 (Provider & User/Developer)
用户/开发者:发起请求,请求里包含签名和元数据(地址、nonce、服务类型等)。
服务商 (Provider):接收请求、存储关键数据,并生成可验证的证明(零知识证明/TEE),再提交到链上进行结算。
核心逻辑梳理:
链上:保证资金安全和结算的可信性。
链下:负责实际服务执行和生成可验证的证明。
关键机制:
预存款:用户先充值,避免赖账。
签名 & nonce:确保请求来源真实且不可重放。
计算验证机制:ZKML/TEEML/OPML:让链上无需执行服务逻辑,也能确认请求有效。
这是一个“用户先预存费用、服务商链下执行请求,并用零知识证明/TEE证明/OP证明把请求结果提交到链上结算”的可信服务调用架构。
❺低通信算力层(0G的关键创新):
由于AI做训练节点之间需要大量的通信来交互数据,所以传统的去中心化训练这个赛道基本都是故事和叙事,很难真正落地。而最早是2023年的几篇论文https://arxiv.org/abs/2311.08105,https://arxiv.org/abs/2502.12996 主要都是针对异构低速的互联网GPU参与训练的模型,起初模型规模都比较小。
但应该启发了很多人,带来更大的突破的是Prime Intellect这家公司,其发布了 Intellect-1,这个模型基本验证了去中心化训练具有可行性。
而0G发布了用去中心化训练大一个数量级的模型。基于论文实现的DiLoCoX框架,该框架已在带宽受限的去中心化网络环境下成功训练出包含 107B 参数的基础模型。
主要创新包括:
-管道并行性,将模型跨节点分割,并将计算与通信重叠,以最大限度地提高利用率。
-双重优化策略,允许节点执行局部更新,同时仍然与全局模型目标保持一致。
-单步延迟重叠,使训练无需等待所有节点同步即可继续,从而减少空闲时间。
-自适应梯度压缩,在保持准确性的同时减少传输更新的大小。
这些技术使得在可访问且带宽有限的环境中,以最小的收敛性下降来训练超过 100B 个参数的模型成为可能。这部分看论文是很多创新点,看是没有看到更多开源出来,希望后续0G能有更多开源代码,开源训练数据等,这样才能给社区更大的透明度,不然和openai等闭源模型还是类似的。
❻研究资料:
DiLoCoX 论文:https://arxiv.org/abs/2506.21263
低通信训练deepmind研究论文:
https://arxiv.org/abs/2311.08105
https://arxiv.org/abs/2502.12996
zkml最新的进展:
https://github.com/ICME-Lab/jolt-atlas
https://blog.icme.io/sumcheck-good-lookups-good-jolt-good-particularly-for-zero-knowledge-machine-learning/(头雁)
分享至:
脉络
热门快讯
APP下载
X
Telegram
复制链接