K线
数据链上
VIP
市值
API
排行
CoinOSNew
CoinClaw🦞
语言
  • 简体中文
  • 繁体中文
  • English
全球行情数据应用领跑者,致力于更高效地提供有价值的信息。

功能

  • 实时行情
  • 特色功能
  • AI网格

服务

  • 资讯内容
  • 开放数据(API)
  • 机构服务

软件下载

  • PC版
  • Android版
  • iOS版

联系我们

  • 聊天室
  • 商务邮箱
  • 官方邮箱
  • 官方验证通道

加入社区

  • Telegram
  • Twitter
  • Discord

© Copyright 2013-2026. All rights reserved.

简体繁體English
|旧版

一文讲透未来十年,天才少年的 AI 投资圣经:《态势感知》

CN
链捕手
关注
1小时前
AI 总结,5秒速览全文

作者:@giantcutie666


2024年,一个00后少年天才Leopold Aschenbrenner从OpenAI离职后,开始做基金。

同时还把自己的投资思路写了出来:

如今回头看,这篇165页论文《态势感知(Situational Awareness: The Decade Ahead)》已经封神了。

去年看懂的人,今年肯定也都财富自由了!

我把165页的英文原版放在“这里”,以下是我已经尽量精简版的内容:

https://situational-awareness.ai/wp-content/uploads/2024/06/situationalawareness.pdf
论文的主要观点是:这十年内人类会造出(可以胜任普通人所有工作的)AGI,紧接着是超级智能。
现在能看懂这件事的不到几百人,大部分挤在旧金山几条街上。其他人——包括华尔街、媒体、华盛顿——都还没反应过来(今年华尔街的一些人也反应过来了)。

第一部分:为什么 2027 年就有 AGI

方法很笨但有效:不预测时间,预测算力规模。

过去 4 年,从 GPT-2 到 GPT-4,模型的"有效算力"涨了大约 10 万倍,每半年增长10倍!

GPT-2 像幼儿园小孩勉强写半通顺句子,GPT-4 像聪明高中生能考过律师资格、做博士级科学题。

这 10 万倍来自三个地方:

第一,硬件砸钱。训练用的算力每年涨 3 倍多。摩尔定律一年才 1.3 倍,AI 是因为人砸钱、专门造 AI 芯片,速度快了 5 倍。

第二,算法变聪明。同样达到某个数学能力,今天的推理成本比两年前便宜 1000 倍,这是算法工程师在卷出来的。

第三,解锁默认被压制的能力(unhobbling)这个最有意思。

模型本身有很多能力,但被默认设置压住了。比如 ChatGPT 之前的 base model 其实很聪明,但用起来像胡言乱语——RLHF 解锁了它。

又比如让模型"想一会儿再回答"(chain of thought)解锁了推理能力。再比如给它工具用、给它长记忆,又解锁一层。

往后 4 年(到 2027),作者预测这三条路再加 10 万倍。

最关键的洞见藏在 unhobbling 里:

现在的模型一次推理只能"思考几分钟"——大约几百个 token。如果让它能"思考几个月"——上百万个 token——会怎样?

例如你和爱因斯坦的差距,远不如"你思考 5 分钟"和"你思考 5 个月"的差距。

这个解锁如果做成了,相当于额外多 3 到 4 个数量级的智能跃迁。这个果子已经看得见了。

按这个外推,2027 前后会出现一种 AI:能像远程员工一样独立工作几周,自己规划任务、写代码、做实验、修 bug、提交结果。

能完整替代一个 OpenAI 研究员,这就是作者定义的 AGI。

最大不确定性来自于数据墙——高质量公开互联网数据快被吃完了。

第二部分:AGI 不是终点,是引爆点

一旦 AI 能做 AI 研究员的工作,会发生什么?

算力不变,但你不再受"全球 OpenAI/Anthropic/DeepMind 加起来几百号研究员"的限制——你可以跑1 亿份 AI 研究员副本,每份以 100 倍人类速度运转。

每几天产出等于人类一整年的工作。

这些自动化研究员还有结构性优势:读完所有 ML 论文、记住每一次实验、副本之间直接共享思考、训练好一个等于全部训练好(不用每个新员工慢慢上手)。

这意味着:人类原本需要 10 年的算法进步,可能在 1 年内被压完。

然后这 1 年又会再生出更聪明的下一代模型,再压一轮。从 AGI 到远超人类的超级智能,可能就是几个月到一两年的事。

作者承认有瓶颈——比如实验需要算力,副本再多也得等 GPU。但他论证瓶颈最多让爆炸慢一点,不能阻止爆炸。

超级智能长什么样

数量级上超人——几亿份并行运行,跨所有学科即时融合,几周内积累相当于人类千年的经验。

质性上超人——像 AlphaGo 下出 move 37 那一步(人类专家几十年都想不到的招),但应用在所有领域。它能找出人类穷尽一生看不出的代码漏洞,写出人类永远读不懂的代码。

我们会像小学生看博士论文。

后果是:机器人学被解决(这主要是 ML 算法问题不是硬件问题)、合成生物学武器化、隐形无人机蜂群可以先发摧毁核武器。

整个国际军事平衡会在几年内被推翻。

第三部分:四个真正紧迫的麻烦

麻烦一:万亿美元集群

这场竞赛不只是码农写代码,是工业动员。

每代模型需要更大集群,更大集群需要电厂,电厂需要芯片厂。

按现在节奏:2026 年 1GW 集群(一个胡佛大坝的电),2028 年 10GW(一个中等美国州),2030 年 100GW(美国全部发电的两成多)。

投资规模 2027 年可能突破 1 万亿美元/年。

真正卡脖子的不是钱也不是 GPU,是电。"我去哪找 10GW?"是 SF 现在最火的话题。

要在美国本土建成,必须放松环保审批、动用联邦权力解锁土地——作者把这个上升到国家安全级别。

如果美国建不出,集群就会跑去阿联酋、沙特,等于把 AGI 钥匙交给其他国家。

麻烦二:实验室就是漏的

现在的 AI 实验室,安全水平等于普通硅谷创业公司。

Google DeepMind(业内最好的)自己承认对国家级对手的防御能力是 0 级(满分 4 级)。

这意味着什么?AGI 模型的"权重"本质就是服务器上一个大文件。

这个文件被偷走,等于把"自动化 AI 研究员"直接交给中国——他们立刻可以跑自己的智能爆炸,美国所有领先归零。

更紧迫的是算法机密——下一代范式的关键突破(怎么破数据墙)正在 SF 各家公司的 Slack 里、办公桌窗外形成。

作者断言:未来 12 到 24 个月,关键 AGI 突破会泄漏给中国。不是 maybe,是几乎一定。

要做到能挡住中国的安全水平,需要硬件级隔离、人员背调到原子弹工程师等级、专门的集群设计——这些至少要几年时间迭代才能建成。如果不立刻动手,2027 拿到 AGI 时安全跟不上,到时只有两个糟糕选项:要么直接送给别的国家,要么停下来等安全建好(可能丢掉领先)。

麻烦三:对齐问题

现在的对齐技术叫 RLHF——人给模型评分,模型学着讨好人。

这招对比人类笨的 AI 有效。一旦 AI 比人类聪明几个数量级,这招彻底失效——你怎么评判一份你看不懂的博士论文?

智能爆炸把这件事搞得极其紧张:

不到一年内,从"RLHF 还管用"跳到"RLHF 完全失灵",没有时间迭代试错。

同时从"小错误"(ChatGPT 说脏话)跳到"灾难性错误"(超级智能从集群里跑出去黑掉军方系统)。

中间架构经历多代演化,最终的超级智能我们完全看不懂它怎么思考的。

现在的模型用英文 token 推理(相对透明),未来大概率会演化到内部 latent state 推理——彻底不可解释。

作者对技术解决方案乐观:低悬果实多,可解释性研究有进展。

但对组织执行极度悲观——全球严肃做这件事的人不超过几十个,实验室没有为安全付出代价的迹象。"我们在过度依赖运气。"

麻烦四:自由世界必须赢

作者花大量篇幅论证:有的国家不仅没出局,而且很有竞争力。

算力上:华为 7nm 芯片(中芯产)性能是英伟达 A100 级,性价比差 2-3 倍但够用。

建设能力:中国过去十年新增电力等于美国全部发电装机。建 100GW 集群的工业动员力,中国可能比美国强。

盗窃路径:只要美国实验室不锁,关键算法两年内必然泄漏。

时间线上有个令人不安的巧合:AGI 时间线(~2027)和台海观察家的中共攻台时间窗(~2027)正在收敛。"AGI 终局有可能在世界大战背景下展开。"

作者的结论:美国必须保持"健康领先"——他建议 2 年。这两年缓冲是用来稳定局势、和中国谈判后超级智能时代的国际秩序。

少于这个领先,整个世界会被推入"通过智能爆炸的存亡竞速"——所有安全裕度归零,所有人为求快裸奔。

第四部分:The Project(AGI 版曼哈顿工程)

到这里作者抛出全书最大胆的预测。

"美国政府让一家 SF 创业公司开发超级智能"是不可能的。想象一下当年用 Uber 开发原子弹。

预测:2027 或 2028 年某个时点,美国国家安全机器会以某种形式接管 AGI 项目。形态可能是国防承包商模式(OpenAI 变成洛克希德·马丁)、合资模式(云厂商+实验室+政府)、甚至更极端的国有化。

核心研究员搬进 SCIF 安全设施,万亿美元集群以战时速度建成。

形成路径:2026/27 出现第一次真正吓人的能力展示——可能是"帮新手造生物武器",可能是 AI 自主黑入关键基础设施。

叠加 CCP 渗透实验室的细节被揭露,华盛顿氛围突变。"我们需要 AGI 曼哈顿工程吗?"先慢慢、然后突然成为头号议题。

为什么必须是政府?因为超级智能属于核武器类,不属于互联网类。私营公司从来不被允许持有完整核武器。

要做到能抵御中国全力的安全等级,只有政府基础设施能做。要管理智能爆炸这种"一年内一切重写"的过程,需要核启动协议级的指挥链,不是创业公司董事会。

作者对政府效率没幻想(曼哈顿工程也曾被官僚拖延),但没有更好选择。

第五部分:作者的告白

作者批评两个对立阵营都搞错了:

加速主义者(e/acc)天真地认为市场会自我调节,忽视对齐和安全的真实难度。

末日论者主张暂停一切——但中国不会暂停,暂停就是认输。

正确姿态作者叫AGI 现实主义:

①超级智能是国家安全决定性技术

②风险真实存在且我们没准备好

③美国必须做 The Project 并主导后超级智能国际秩序。

湾区几条街上的几百号人,正在决定整个文明的走向。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

链捕手的精选文章

14小时前
下一代支付,不在支付层里
14小时前
Tom Lee 2026 投资核心逻辑:卖稀缺资产的公司正在碾压市场
1天前
美股登记龙头被加密交易所收购,加速股票代币化
查看更多

目录

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

相关文章

avatar
avatarPANews
5小时前
一周预告 | 沃什或将接过美联储帅印;美参议院银行委员举行CLARITY法案审议听证会
avatar
avatar深潮TechFlow
6小时前
TechFlow 情报局:DeepSeek 首轮融资估值近 450 亿美元,美股财报季表现远超预期
avatar
avatarPANews
10小时前
我做了26年离婚律师:加密货币如何成为富豪隐藏资产的新工具?
avatar
avatarPANews
12小时前
加密富豪榜曝光:中本聪890亿美元封神,有人却取不出一分钱
APP下载
Windows
Mac

X

Telegram

Facebook

Reddit

复制链接