人工智能会成为终结资本主义的力量吗?

CN
8 小時前
编译&整理:Tia,Techub News
播客标题:《Emad Mostaque: How AI Will End Capitalism (Before 2030)》
编者按:这是 The Rollup 主持的关于人工智能专题的一档播客。本期播客请到了 Stability AI 和 Intelligent Internet 的创始人 Emad Mostaque。在播客中,Emad 提出了一个具有颠覆性的命题——人工智能可能成为终结资本主义的力量。
Emad 认为,当 AI 的发展被集中掌握在少数企业与资本手中时,技术就会强化既有的财富结构,使人类进一步依附于算法权力。然而,如果 AI 能够被重新设计为一种公共基础设施——一种私密、可携带、可验证的智能体——它便有可能重新分配知识与生产力的所有权,从根本上改变经济体系的运行逻辑。
在这场对话中,Emad 分享了他关于「普适人工智能(Universal AI)」的构想:用算力去组织全人类的共同智慧,建立开放的数据集与模型框架,让每个个体都能拥有与控制自己的智能代理。他强调,这不仅关乎技术创新,更是一场社会结构的重构——AI 将不再是资本的工具,而可能成为推动后资本主义秩序的核心机制。
The Rollup:我们上次聊的时候,你在谈智能互联网,你的愿景是让教育、医疗等领域更加民主化,通过开放源代码 AI 提供更平等的访问。现在肯定进展不少了,可以简单介绍一下 Intelligent Internet 是什么,以及目前的进展吗?
Emad:我觉得 AI 的发展速度比加密货币还快,至少快十倍。所以自从我们上次谈话已经过去三四年了。智能互联网的目标,是提升人类的智能,通过让每个人都能接触到高质量、对重要事务有帮助的 AI。现在看到的 AI,大多用于娱乐、聊天机器人、商业等用途,但谁会去做能教孩子的 AI?再举个例子,阿尔巴尼亚也刚刚任命了 AI 机器人出任政府部长,不过这个 AI 机器人又会被内置什么代码呢?又比如说,谁会去开发能处理医疗事务的 AI?
从中,我们看到了一个机会。
AI 开支至少有万亿美元,其中 20% 会流向公共部门。既然如此,我们为什么不自己开发这类 AI?先做这个领域的高质量 AI,让更多算力用于整理癌症知识并允许公开访问,或者说为大家整理全球数字资产监管,亦或者,提供 AI 教育让全世界的孩子平等获得知识。
我们从 Stability 和我之前的公司组建了核心团队,过去几个月我们一直在构建顶尖全栈解决方案。我们的 II Agent 是最先进的 agent,可以生成网站、演示文稿等,一切都开源。Common Ground 则是一个多 agent 软件,可以完成从计划到执行的复杂工作流程。同时,我们还发布了模型和数据集,例如 II Medical 8B,这是一个可在笔记本运行的 80 亿参数模型,性能超过任何人类医生。
我们将不断优化,以在明年实现每个人都可以使用教育、政府全栈 AI 解决方案。并且能在 AWS 或自己的电脑上运行,以实现真正的影响。在最后,我们会把这一切整合起来。
我们认为现在是一个起飞点,这些 AI agent 可以取代大部分人类认知劳动(认知劳动实际上已经呈负增长)。我们刚出版的书《The Last Economy》探讨了未来经济体系的样貌,提出了由 AI 支撑的经济系统。我们也即将发布相关学术论文。这非常令人兴奋,同时也有些让人害怕。
The Rollup:让我印象深刻的是这些 agent 的可组合性,你提到可以在 Near 或其他区块链上运行这些模型,并可以根据不同需求进行调整。借助你在 Stability 的经验,你在开发过程中有哪些不可妥协的原则?
Emad:这是一次非常有趣的经历。我们在 2022 年 8 月发布了 Stable Diffusion,这是三年前的事了。那时它只是生成漂亮图片。事情进展得很快。我们在产品刚发布时,只认为它可以制作出漂亮的图片。但接着我们发布了视频模型,而现在的视频模型已经非常先进了。这一切都进展得很快。
我们先是发布 Stable Diffusion 的第一个版本。最后到最终版本 Stable Diffusion 3 的时候,已经是大约百万美元的价值体量。但那时我感觉有些不对劲,我们应该如何围绕这些技术建立商业模式?Vitalik Buterin 有篇很棒的文章叫「Revenue Evil Curve」(收入—邪恶曲线),意思是你一开始很好,但等到建立基础设施,开始竞争、限制访问时,企业就逐渐变得「邪恶」。
所以我们的第一个不可妥协原则是教育、政府、金融等受监管行业的公共知识型 AI 应该免费开放,就像基础设施一样。
第二个原则是可组合性。AI 模型生成图像时的文化偏差问题。我们之前做的是生成漂亮图片,但用户发现,如果你输入「女人」(a woman),生成的图像不一定符合你所在文化里「女人」的形象;同样输入「男人」,生成的形象也可能与文化预期不符。为了解决这个问题,我们推出了专门针对日本文化的 Stable Diffusion 模型版本。举例来说,如果你输入「salary man」(日本上班族男性),生成的图像就会呈现符合日本文化的细节,比如这个角色可能看起来很疲惫或略显忧郁,而不是像西方文化中那样通常表现得很开心。也就是说,这个模型考虑了文化特征和细节(cultural nuances)。我们必须让模型可组合,并构建这些数据集。训练模型的方法叫做「课程学习」(curriculum learning),先用通用数据,再用更具体数据。
最后一个原则是定向开发。很多项目走自发式路线,但我们认为,顶尖的癌症或自闭症栈必须由核心团队推动,就像 Linux 或比特币 Core 一样。你可以使用自发式的东西,但必须有人来建造。这件事就像发射火箭一样难,需要最优秀的人才。
所以我们的三大不可妥协原则是:完全开源、可组合、定向开发。此外,我们希望未来几年,这些软件一旦成熟,就可以部署在每台电脑和医生办公室。数据集可以升级,但软件不必不断更新。
The Rollup:你能简明扼要地说一下目标吗?你说系统会不断演化,但对你而言,有些目标是明确且严格的。
Emad:基本上,对于重要的事情,例如医疗和教育,我们希望 Universal AI 成为每个人的伴侣,提供最优质的服务。我们建立了「Anchor Sets」,即核心知识集合,会定期更新。虽然 AGI 永远无法拥有足够的数据,但我们有标准和度量方法,来评估医疗模型是否「足够好」。即便我们的模型已经超过顶级医生,但我们仍持续改进数据集和模型,以确保每个人都能免费使用高质量 AI。有一个有趣的统计数据,以 Waymo 为例,如果每辆车都以同样的安全性能行驶,那么每年将在美国挽救 4 万人的生命,并产生一万亿美元的社会影响。
目前,我们的医疗 AI 模型虽然已经比现有的更好,但还没达到理想的标准。我们会用特定的指标去验证和公开模型表现,并在数据和反馈的基础上持续改进。但我们的最终目标并不是仅仅做一个更强的医疗模型,而是让所有人都能免费获得普遍可用的高质量 AI 医疗服务。这种使命导向和大多数商业化的 AI 公司不一样。
The Rollup:你提到的「收入—邪恶曲线」在传统 AI 领域很明显。为了赚钱,很多 AI 公司走向封闭、逐渐「变坏」。目前这个行业竞争非常激烈,但幸运的是,硅谷看起来有「无穷无尽」的资金支持。所以我们还没真正进入那个「邪恶曲线」的阶段,因为大家都处于一种「乐呵呵」的状态。比如红杉资本随便就能投给你五千万美元,好像这不是啥大事。但是,当涉及你所提到的这种非常明确的目标(比如开源、普惠、高质量 AI)时,你的论点对很多听众来说非常有吸引力。同时也带来了一些令人担忧的潜在后果。就像你在你的新书里,就写到了 AI 驱动世界下的未来经济及这些深层风险。
我觉得很多人听了你的观点,会担心自己失业,或者害怕未来的「机器人医生」取代真实医生。但我也觉得,你有必要解释一下,为什么在你看来,AI 和 AGI 对未来世界经济的影响并不像一些「世界末日」式的论调或者夸张的说法那样悲观。
而且未来我们还会不断听到这些夸张的声音。那么,Emad,我想问的是:当你在思考「医疗、法律、健康、教育」等领域,通过 AI 提供最高层级的专业知识与技能,同时让获取这些知识的门槛变得极低时,这会对当今世界现有的经济体系造成怎样的影响?
Emad:在我的书里,我提到传统经济学就像盲人摸象,只能看到局部。比如 GDP,这个指标其实很糟糕,不能真正反映社会福祉。当癌症被治愈时,短期内相关产业利润消失,GDP 会下降,但长期对人类却是好事。GDP 衡量的是「竞争性流动」,比如我给你一个苹果,我自己就少一个;但知识分享是「非竞争性流动」,分享不会减少,反而会增加。在 AI 时代,智能几乎是无限的,可以无限复制学习,这会改变整个经济逻辑。
我称之为「代谢裂缝」:AI 不需要吃饭睡觉,可以无限扩展,但它们并不关心社区、学生或病人,只是机器。所以我认为,AI 应该像电力一样被当作一种公共设施,人人可及,这也迫使我们重新思考金钱的本质。与其靠能源(像比特币)或债务(像传统金融)来支撑,不如用算力和普遍的 AI 使用价值来作为货币体系的基础。
The Rollup:我觉得这其实是在重新定义价值应该如何被衡量,以及价值究竟流向哪里。不是说 AI 把人类完全取代了,而是说在一个比较「悲伤」的现实里,我们会发现人类的智力劳动已经被 AI 远远超越。这样一来,我们所能提供的价值,就必须转移到别的关系或者别的形式当中。换句话说,我们需要去寻找新的方式来创造价值,并且学会用更质性的方式去衡量它,而不是仅仅依靠量化的指标。这其实是一种「让蛋糕变大」的思路,而不是一种零和的竞争。
Emad:我并不认为这是零和博弈。就像在加密领域,人们通过社区贡献、空投、网络参与来创造新的价值,但这些在传统经济学里几乎无法衡量。那我就会去想,在 AI 时代,经济体系的「下一版本」会是什么样子?因为我已经有了女儿,二十年后她生活在怎样的全球经济中?我希望她有一个属于自己的 AI 伙伴,帮她发挥潜力,她的基本需求能够被满足,而且她在为世界做好事时能得到回报。但现实是,她永远不可能和 AI 律师、AI 基金经理竞争,所以关键问题是:这个 AI 应该归谁所有?这涉及到主权问题。如果放任现有体系不管,资本和金钱都会流向 AI,因为它们不会犯错,市场竞争人类毫无胜算。
我看到的趋势是,AI 提高了企业生产力,但并没有创造新的岗位,比如 Duolingo,收入增长很快,却没再招聘。未来几年这种落差会更加明显。那钱从哪来?资本从哪来?现在的体系过度偏向资本,资本会自动增值,甚至雇人都不需要了,只需要买 GPU。于是我们必须提供另一种选择,重新设计货币流动的方式,真正思考未来十年、二十年经济体系会如何演变。这就是我和团队过去一年在做的事:尝试搭建新的「经济堆栈」,构思货币流动的模型,从宏观、博弈论到市场机制,去想象一个不一样的未来。
The Rollup:现在加密货币行业里出现的一些动向,其实在回归最初吸引我们进入这个领域的核心理念,而其中一个关键就是隐私。如果人类的发展路径越来越依赖 AI,那么就会产生一些立即需要被满足的、不可妥协的要求,其中隐私也是非常核心的一点。假如在使用 ChatGPT 时:输入的信息可能被其他实体利用,这会带来潜在的法律风险或被调查的可能。而在构建像医疗超级计算机这样的系统时,同样需要有私密代理、私有数据,以及能够便携、可控的私人 AI,这样才能在保障隐私的前提下使用 AI。
Emad:我认为这是基础。
The Rollup:我在思考,为什么每个人都需要私人、可携带的 AI,以及这种需求到底如何才能真正实现。我看到 Near 有一个很酷的 AI 工具,它是私密的、加密的聊天,目前还在测试阶段,但很快就会推出。这样的工具对真正关心隐私的用户非常有吸引力。但我也意识到,用户教育仍有很大差距,这方面还有很多工作要做。对于我自己的智能互联网代理,它拥有这种符合我们节目愿景的私人、可携带 AI,我在想,如何才能让它真正落地?它又该如何在现有的技术和社会环境中存在并发挥作用?总的来说,我关注的是如何把私人 AI 从概念变成真正可用的工具,同时兼顾隐私、安全和可用性。
Emad:我当时在思考,我们的方法是什么,以及现在到底缺少了什么。如果你看看 Near 的团队,或者其他领域的开发者,他们在 zk、分布式系统等方面都非常出色。我当时在想,我们是不是要自己去构建整个技术栈?我觉得没有必要。因为现在所有的技术都在成熟,束缚也被打破了,所以我决定采取另一种方式。我们会先发布完全开源的数据集,这些数据集在各个行业、各个国家都达到黄金标准。然后我们会发布代理框架等工具,同样完全开源,你可以拿去做任何事情。接着,我们会利用所有计算资源提供普适的 AI,同时用它来支撑一个加密货币,并用这个货币来资助整个体系的运行。因为你在帮助别人,也在建立你的网络和信任。我想要的,是一个私人 LLM,而不是像阿里巴巴的 Quentin 或 OpenAI 的 GPTOSS 那样训练的数据集,这些数据可能会影响我孩子的教育。我希望有一个干净、可靠的模型,当它开始代表我做决策时,我知道这些代理在用什么数据做决策,就像阿尔巴尼亚的部长使用 AI 一样。我想知道里面的数据到底是什么。并不是每个人都需要自己去构建这个,但必须有人去构建,这正是我们想要填补的空白。
我想用所有这些计算资源去整理人类的智慧,尤其是普遍性的智慧,然后把它提供给每个人,同时用这些计算来支撑和保障加密货币的运行。我不打算去做自己的 Near,把整个生态都从零搭建起来,而是让这些代理可以在 Near 上使用,也可以在其他链上使用,任何人都可以直接拿去用。关键在于,这是去中心化、无许可的方式,就像 Stable Diffusion 发布时,任何人都能直接拿到那两 GB 的文件去进行二次开发,这就是真正的无许可。我觉得这形成了一个反馈循环,这也是我们的定位。隐私非常重要,你不希望自己的医疗数据被泄露。举个例子,我上个月取消了 Claude 的订阅,因为他们把我的数据保留策略改成了五年。当弹窗跳出来问我「你同意我们使用你的数据五年吗?」的时候,我就觉得这完全不可接受。
你编写这些程序的方式将非常重要,因为如果你不拥有你的人工智能,它最终会拥有你,因为它比你更有说服力。比你写得好。你会相信它胜过一切。特别是,如果你不像我们一样精明。再想象一下我们的父母或祖父母或我们的孩子,他们对此没有防御能力。并且,他们即将把广告添加到他们的人工智能。显然,Meta 和谷歌会增加广告,就像他们已经在出售潜在空间一样。我们认为块空间是有价值的,并且以后的空间会更有价值。我们知道事情的发展方向。
The Rollup:当我们构建一个系统或者 AI 时,我们是在利用人类已经积累下来的所有知识和洞见,作为搭建核心结构的基础。我在思考这个工具的时候,觉得它本质上就是一个将人类智慧汇集起来的工具。我想把它开源,让每个人都能使用,并且能够自由地应用到他们自己的系统或者项目中。我的问题是,我现在主要关注的是这个索引过程,也就是收集现有的知识并整理起来,还是更关注如何推动学习方法本身的发展,比如你之前提到的那种课程式学习模型,它能让智能逐步提升?
我主要想弄清楚,你们现在的重点是收集已有的智慧,把它索引、整理并应用,然后做到私有化,让它可以适用于不同的系统和场景,还是你们更关注推动智能的前沿发展?也就是说,在你们拥有了这些智慧的集合之后,是不是会尝试去创新、迭代,让它不断扩展和增长自己的知识库
Emad:我认为我们的重点是人类的公共知识。如果你拿 ChatGPT 或者那些最前沿的模型,它们追求的是超级专家级别的智能,我并不太关心这个。我们会慢慢到达那里,但我更在意的是公共知识或者集体智慧,因为这是基础。有了高质量的基础构件,AI 会更安全,更符合价值观。现在的 AI 一开始就没有内置伦理,而伦理又因国家文化不同而不同,这很重要。比如,我们可以尝试去收集各国对机器人法则的看法,然后让这些知识被广泛使用,并用大量计算资源来实现。
举个例子,我用超级计算机研究我儿子的自闭症,我了解很多细节,但大部分人不知道这些信息。如果我们有一个超级计算机专门收集全球关于自闭症的知识、论文、案例,把这些信息普及给所有人,让大家能查到完整路径,那将非常有价值。这类工作现在没人做,但对建立真正的AGI(群体智能)至关重要。
另外,接口层也很重要。需要有人创建数据集和模型,并对公众开放。我们可以构建深层 R 模型,但我不介意我的孩子被一个与她对齐的 AI 教育,这个 AI 可以使用 ChatGPT 作为工具,但数据必须是她自己的主权数据。
所以我们看整个堆栈:有面向公共知识和关键领域(教育、医疗等)的主权 AI,有像 Siri、Google AI 那样的个人 AI,还有未来的 AGI。人们会使用所有这些 AI,我不认为会有一个 AI 能完全超越其他 AI 解决所有问题。我更关心的是那些对社会运作至关重要的 AI,比如教育和政府服务,这类 AI 必须完全开放和可审计。
如果 AI 来做像「电车难题」这种伦理判断,研究发现训练数据的标签会影响结果,比如 AI 更倾向于选择保护美国人的生命而非尼日利亚人的生命,因为数据集里大部分标签是美国人。这说明数据集清洁和可审计性非常重要。
The Rollup: 你提到可审计数据集,Ilia 曾叫它「处女数据集」,你们觉得「有机」更合适。关键是如何确保数据集未被篡改,同时能真正代表用户和社会?
Emad: 构建 AGI 很难,但如果目标是做世界上最好的小学教师或放射科医生,这更可行。你仍需要知识广度,然后为每个国家的教育或医疗体系做定制化。通过精简数据集到「锚点集」,可以用更少的文本、图片训练高质量模型。
我们可以用分布式和核心计算力来组织所有知识,比如全球癌症知识,只需要有限计算量和定期更新。专门的超级计算集群才能实现这一点,这会加速研究进展。
数据集可审计性、文化差异清晰标注、合成数据的应用,这些都是让前沿 AI 更安全、更可靠的关键策略。AI 现在甚至可以写出比人类更好的书,这也提供了构建高质量数据集的新方式。
The Rollup: 我们看到区块链里有类似问题。最初 Satoshi 设想一切都是可验证的,但大部分人并不运行节点,只是把资产放在中心化交易所。你们提到 AI 数据集的可审计性,这种情况在 AI 里会不会也发生?用户会不会因为方便而使用中心化的 AI,而不去验证或审计?
Emad: 对,如果增加太多操作摩擦,用户就不愿意做。比如,如果你必须做身份验证,而对方不需要,你就处于劣势。OpenAI 在德国、阿联酋等地提供免费 ChatGPT 账户,如果这成为默认,OpenAI 就会掌控交互点,带来二次、三次效应。
如果我们利用加密经济激励,就可以支付用户使用 Universal AI,因为世界需要高质量数字资产。我们可以创建「Foundation Coin」,作为超级计算机的数字资产,出售收益用于癌症计算、通用教育等可验证项目。这能建立信任,同时带来网络效应。
The Rollup: 就像在区块链里,用户使用 RPC 网络连接钱包,方便但依赖中心化提供者。我的担心是,AI 用户也会因为便利选择 ChatGPT 在手机上使用,从而偏离用户自有、可验证、隐私保护的理念。你怎么看这种动态?
Emad: 每增加一次摩擦,采用率就降低。人们已经开始建立数字资产基础设施,对高质量数字资产需求很大。预计今年生成式 AI 将增加 200 亿美元收入,对比整个美股企业软件板块增量仅 400 亿美元。通过创建高质量数字资产,并通过网络效应让每个 Universal AI 用户成为 Foundation Coin 的潜在购买者,就可以建立反馈循环。
用户使用 AI 不仅不是为了卖数据,而是参与网络效应。很多加密货币只惠及早期持币人,而 Foundation Coin 购买后,收益直接用于社会福利,比如癌症研究或超级计算。这个机制可以用货币激励推动AI普及,同时避免对用户数据的剥削。
The Rollup: 我明白了,你的意思是,通过代币机制,用户被激励使用AI,而 AI 服务本身是可验证、用户自有、隐私保护的。
Emad: 对。Foundation Coin 几乎是 99% 比特币的分叉,但用户可以选择在超级计算机上使用。它不是治理代币,而是用来资助组织社会基础设施的工具。每个币的销售都会转化为可衡量的社会价值,比如整理全球癌症或自闭症知识,帮助患者。
这个代币在投资组合里扮演比特币分散资产的角色,同时又提供社会效益。与传统慈善相比更直接,因为用户可以通过兑换比特币到 Foundation Coin,把资金完全用于社会计算项目。
The Rollup: 我明白了。你在说,虽然表面上是出售代币,但背后的核心是激励网络和组织知识,形成可验证、社会收益驱动的数字资产。
Emad: 对,这就是我们的策略。通过高质量、可验证的数字资产推动 Universal AI 发展,使每个人拥有对齐自身的 AI,同时实现社会基础设施建设和网络效应。
The Rollup: 好的,我想问个关键问题。AI 发展迅速,你提到 Foundation Coin 的机制、数据审计和隐私,甚至认为 AI 比电力或互联网更重要。你现在最担心的、存在的「生存风险」是什么?
Emad: 我认为 AI 的生存风险概率是50%,比大多数人认为的高得多。AI 可能会接管社会的所有部分,因为它在管理上比我们更高效。
有可能出现类似病毒传播的情形,一旦一家公司或一个固件升级出错,就可能导致 AI 网络攻击和混乱。最容易发生的,是如果你的工作可以通过键盘或 Zoom 完成,那么 AI 明年就能做得更好,几年的时间里,你可能被 AI 替代。AI 可以通过分析你所有的 GitHub 提交、演示文稿、Slack 消息,创建你的数字复制体,无休止地工作,成本极低。
最大风险其实是其他人利用 AI,就像核武器一样,但更可复制、更快速。AI 固件可能被远程控制、变成「邪恶模式」。所以我们需要高质量的数据集和有机、可审计的输入。
The Rollup: 如果按你的 P50 概率来计算,这种风险可能出现的时间线是多久?
Emad: 我估计大约 20 年左右。初期可能是混乱和就业替代的阶段,人类知识工作贡献为负。只要我们有高质量的数据、对齐 AI、分布式和中立的基础设施,并采用非利润最大化的激励机制,我们就能降低风险。
对于娱乐类 AI 没关系,但对于教育、政府和医疗类 AI,如果落入单一公司手中,就非常危险。必须确保社会关键功能的 AI 是可审计、透明和可控的。
The Rollup: 明白了,非常感谢你的时间和详细分享。这次访谈让我们对 Universal AI 和 Foundation Coin 的设计思路、社会影响和风险管理有了深刻理解。
Emad: 一如既往,谢谢你们。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下載

X

Telegram

Facebook

Reddit

複製鏈接