Haotian | CryptoInsight
Haotian | CryptoInsight|2025年07月26日 04:08
来说一说, @OpenledgerHQ 近期发布的OpenChat,其打着打着“Proof of Attribution”的旗号,号称要让AI生成内容的每个贡献者都能获得应有回报。具体如何做到呢? 1)从产品实现逻辑看,OpenChat确实在干一件技术难度极高的事。其核心卖点是:你发的每条消息、分享的数据集、微调的模型都会被链上记录,一旦被他人使用就能获得分润。 技术视角看,其实就归功于它的“归因引擎”,这是一个高保真度的∞-gram 语言模型,用后缀数组在数万亿Token中做毫秒级匹配,把你每句话都拆成Token窗口,通过BERT、Sentence-T5等向量化逻辑做嵌入处理,然后精确匹配到原始数据源。 简单理解,就是给AI内容生成装了个“超级显微镜”,每个Token的“DNA”都能给你查出来。用户界面会用下划线标出哪些内容来自哪个数据集,连置信度分数都标得明明白白。每次聊天都会实时触发链上交易,计算平台费、数据网费用、模型费用的分配——你的数据被用了多少句话,就分多少钱。(如配图所示) 2)剖析完产品逻辑,OpenChat的商业逻辑也就很清晰了,就是试图重构整个AI内容生成的价值分配体系。传统AI服务是“黑盒分钱”——你调用OpenAI接口,完全不知道背后怎么分账的。OpenChat要做的是让每一次AI调用都变成“公开分账”,数据贡献者、模型开发者都能按贡献获得实时分润。 说直白点,Openledger在构建起AI技术主权数据区块链时,抽象出了三层技术架构:底层链上协议、中间层归因引擎、顶层用户应用;很显然,OpenChat就是OpenLedger整套技术架构的一次技术验证和试验,通过一个聊天界面把Openledger想要传递的抽象的AI数据贡献公开分账系统给“具像化”了。 其目标就是要验证:数据调用可以被完全透明化,每个Token的来源都能被精确追溯,价值分配可以实时自动执行。 3)不过,要做到对大规模数据的精准追踪和链上记录并非易事,尤其是“上链设计”的设计上,OpenLedger选择了“实时上链”的重度方案,确保每次对话都能即时分润,想想看就知道了,这对Gas费用和交易频率的考量会非常大。 这种设计面临的直接挑战是性能瓶颈。如果OpenChat有几万用户同时在线聊天,每秒可能产生数十万笔归因计算和分润交易,这个吞吐量TPS要求远超大部分公链的处理能力。即使是在相对高性能的侧链上,要保证毫秒级的归因匹配加上实时链上结算,对整个技术栈的要求都是极高。 更现实的问题是经济可行性。每笔链上交易都需要Gas费,哪怕单笔费用很低,大规模使用下来成本也会成为用户的负担。用户会愿意为了“公平分账”而承担每次聊天都产生的额外费用吗? 其实,Openledger完全可以选择批量结算或周期性上链的折中方案,但既然选择了实时上链和即时公平分配,只能说还在尝试做极致主义的探索,其最终会不会调整机制还不知道,但这样的尝试倒是蛮有意义的。(Haotian | CryptoInsight)
曾提及
分享至:

脉络

热门快讯

APP下载

X

Telegram

Facebook

Reddit

复制链接

热门阅读