开源人工智能势头随着英伟达首席执行官的认可而增强
查马斯·帕里哈皮蒂亚在“All-In Podcast”的一集节目中重点介绍了Bittensor的Covenant-72B,将其视为去中心化人工智能(AI)超越理论的具体例子。Bittensor作为一个去中心化的、基于区块链的网络,建立了一个点对点市场,在这个市场中,机器学习模型和AI计算被交换和激励。
帕里哈皮蒂亚用简单的术语描述了这一努力:一个没有集中基础设施的大规模语言模型(LLM),而是由一个独立贡献者网络提供动力。“他们成功训练了一个40亿参数的LLaMA模型,完全分布式,有一群人贡献了额外的计算能力,”他说,称其为“一个相当疯狂的技术成就。”
这个比较有一个熟悉的类比。“有很多随机的人,每个人都得到一小部分,”帕里哈皮蒂亚补充道,提到早期利用全球闲置硬件的分布式计算项目。
黄仁勋并未否定这个想法。相反,他倾向于更广泛的AI市场框架,暗示去中心化和专有方法并不是相互排斥的。“这两者不是A或B;而是A和B,”黄仁勋说。“这毫无疑问。”
这种双轨愿景反映了AI内部日益增长的分歧和重叠。一方面是封闭的、高度精致的系统,如ChatGPT、Claude和Gemini。另一方面是开放权重和去中心化模型,允许开发者和组织根据特定需求定制系统。
黄仁勋明确表示,他认为这两条路线都是必要的。“模型是一种技术,而不是产品,”他说,并指出大多数用户将继续依赖打磨过的通用系统,而不是从头构建自己的系统。
同时,他指出,在某些行业中,定制并非可选。“所有这些行业的领域专业知识……必须以他们可以控制的方式被捕捉, ”黄仁勋解释说,并补充说,“这只能来自开放模型。”
这句话直接落在Bittensor的领域。Covenant-72B通过其子网3(Templar)开发,代表了迄今为止最大的去中心化训练运行之一,协调了超过70个贡献者,利用标准的互联网连接,而无需中央权威。
从技术上讲,该模型突破了界限。构建有720亿参数,并在大约1.1万亿个令牌上进行训练,利用压缩通信协议和分布式数据并行性等创新,使得在传统数据中心之外进行训练成为可能。
性能指标表明它不仅仅是实验性。基准结果使其与建立的集中模型竞争,这一点有助于解释为什么该项目吸引了超出加密原生受众的关注。
市场也注意到了这一点。在公告之后,项目的代币TAO自帕里哈皮蒂亚和黄仁勋的视频在社交媒体上流传以来上涨了24%。
尽管如此,黄仁勋的言论表明,真正的故事并不是颠覆,而是两者之间的共存。专有人工智能系统可能仍然会在通用用户中占主导地位,而开放和去中心化模型则在特定、成本敏感或主权驱动的应用中开辟角色。
对于初创公司,英伟达首席执行官概述了一个务实的行动计划:首先开放,然后逐步增加专有优势。“我们现在投资的每个初创公司都是优先开放源代码,然后转向专有模型,”他说。
换句话说,人工智能的未来可能不属于单一的架构或哲学。它可能属于那些能在两者之间游刃有余的人,并知道何时使用每种方法。
常见问题解答 🔎
- Bittensor的Covenant-72B是什么?
一个通过去中心化网络的贡献者训练的720亿参数语言模型,没有集中基础设施。 - 黄仁勋对去中心化人工智能有什么看法?
他说开放和专有的人工智能模型将共存,将两者的关系描述为“A和B”,而不是二者之间的选择。 - 为什么这一发展重要?
它表明大规模的人工智能模型可以在传统数据中心之外进行训练,挑战关于基础设施需求的假设。 - 这对人工智能行业有什么影响?
这支持一个混合的未来,其中集中平台和去中心化模型在各个行业中扮演不同的角色。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。