K线
数据链上
VIP
市值
API
排行
CoinOSNew
CoinClaw🦞
语言
  • 简体中文
  • 繁体中文
  • English
全球行情数据应用领跑者,致力于更高效地提供有价值的信息。

功能

  • 实时行情
  • 特色功能
  • AI网格

服务

  • 资讯内容
  • 开放数据(API)
  • 机构服务

软件下载

  • PC版
  • Android版
  • iOS版

联系我们

  • 聊天室
  • 商务邮箱
  • 官方邮箱
  • 官方验证通道

加入社区

  • Telegram
  • Twitter
  • Discord

© Copyright 2013-2026. All rights reserved.

简体繁體English
|旧版

重新发明计算:黄仁勋在斯坦福谈AI时代的系统、教育与未来

CN
Techub News
关注
3小时前
AI 总结,5秒速览全文

撰文:Techub News 整理

在面向斯坦福学生的长谈中,英伟达创始人兼CEO黄仁勋给出的核心判断非常鲜明:计算机科学并不是在做一次局部升级,而是在经历一次自IBM System/360以来最深刻的重构。他认为,过去六十多年里,人们理解计算机、编写软件、组织公司、设计芯片、构建系统乃至部署应用的方式,虽然经历了PC、互联网、移动和云计算等多轮浪潮,但底层计算范式大体延续不变;而在生成式AI、推理模型和智能体系统出现之后,这个稳定结构第一次被整体撬动。

黄仁勋首先强调,今天之所以是学习计算机科学的绝佳时刻,不仅因为AI火热,更因为“计算”本身正在被重新定义。 在他看来,传统计算更像“预先录制”的世界:软件是提前写好的,内容是提前存储好的,计算机更多承担检索、执行和展示的角色;而AI时代的计算越来越转向“实时生成”,系统会围绕上下文、用户意图和环境变化持续生成答案、内容、动作乃至决策。 这意味着,计算机不再只是一个被动执行命令的工具,而开始成为能够处理语义、理解上下文、调用工具并持续运行的主动系统。

这种变化不是某个单点技术升级,而是全栈重构。黄仁勋提到,从软件开发方法、编程工具、组织架构,到神经网络与传统编译程序的运行方式,再到网络、存储、云服务和最终应用形态,几乎每一层都已经发生变化。 他特别指出,深度学习和生成式AI不仅让图像生成、摘要、翻译等任务变得可行,更重要的是让人们第一次清晰看见:机器不仅能生成内容,也有机会形成“思考过程”,并进一步走向具备步骤化推理与工具调用能力的智能体系统。

从“分层优化”到“全栈协同”

谈到“co-design(协同设计)”时,黄仁勋给出了一个很有代表性的系统观。过去的计算机工业习惯于把问题切分开来:做微处理器的人设计处理器,做编译器的人研究编译器,做编程语言的人研究语言,彼此通过抽象边界协作。 这种分工在通用计算时代非常有效,但当工作负载变成深度学习、自动驾驶、量子化学、流体力学等计算密度极高的问题时,仅靠某一层单独优化,已经很难拿到数量级的性能跃迁。

他以斯坦福在RISC上的传统为例说明:当处理器架构与编译器被“协同”考虑时,简化指令集、提升可编译性,反而能比各自独立做到局部最优更有效。 这套思想在AI时代被推向极致。黄仁勋认为,英伟达的真正不同之处,不是只做GPU,而是把算法、框架、编译器、芯片、CPU、GPU、网络、交换机、存储甚至数据中心级系统放在一起共同优化。 在他口中,这是一种“极限co-design”,即不是改善某一个零件,而是围绕目标任务重写整台机器。

他给出的对比数字也极具冲击力。按照传统摩尔定律的想象,理想情况下五年十倍、十年百倍已经非常了不起;但在他看来,如果只是依靠半导体自然迭代,而不触碰软件栈和系统架构,那么过去十年现实中的收益甚至可能只在10倍到100倍之间。 而借助全栈协同设计,英伟达在某些AI计算场景中实现了十万倍到百万倍级别的跨代提升。 正是这种超线性的系统进步,才让“把整个互联网都喂给模型”这样的训练方式从天方夜谭变成工程现实。

AI时代的计算机,为什么不再是旧机器的延长线

黄仁勋反复提醒学生,不要把AI看成旧计算机上附加的一层新软件,因为它正在改变“什么是计算机”。 在传统云计算时代,计算大多按需触发:用户发起请求,系统处理任务,计算结束后资源回收,这是一种典型的on-demand模型。 但智能体时代的系统,开始呈现持续运行、持续观察、持续规划和持续调用工具的特征,计算资源不再只是按次分配,而更像长期在线的“数字劳动力”。

一旦如此,很多旧假设都要改写。什么是个人电脑?什么是云服务?CPU和GPU如何分工?存储与网络如何连接?应用软件是“一个程序”,还是“一个由多个智能体组成的系统”?这些问题都不再有沿用旧时代经验就能得到的答案。 黄仁勋描述未来智能体系统时指出,系统会有长短期记忆、需要频繁使用工具、需要极低时延的CPU响应、还需要让存储更直接地接入处理器与互连织网之中。 在这种思路下,计算平台的设计重心,就从传统服务器逐步转向“为推理、为智能体、为持续工作而生的机器”。

他以英伟达几代平台演进为例,展示这种面向未来工作负载的设计逻辑。Hopper更多面向预训练,抓住的是超大规模训练集群的建设需求;Grace Blackwell则显著面向推理与token生成,通过NVLink 72这类更大规模互连,把多个芯片的内存带宽聚合起来,解决大模型解码阶段对带宽的渴求;而在黄仁勋的叙述中,Vera Rubin将更明确地朝着智能体时代优化,考虑长记忆、工具调用、低时延CPU协作以及存储直连等问题。 他的判断很明确:预训练不是终点,推理不是终点,真正的目标是“做工作”,也就是让AI从会回答问题,走向会长期执行任务。

衡量算力,不能只看FLOPS

在谈到开放生态、算力利用率和性能指标时,黄仁勋提出了一个非常值得玩味的观点:只盯着MFU或FLOPS,很可能是在优化错误目标。 他解释说,大规模AI系统并不是单一瓶颈机器,任何时刻都可能受限于计算、显存带宽、显存容量、网络带宽、存储访问等不同因素。 如果系统为了应对峰值工作负载而必须在多个维度上过度配置,那么在很多时间段里,某些FLOPS处于闲置状态并不意味着系统设计失败,反而可能是避免阿姆达尔定律束缚所必须付出的代价。

更重要的是,真正有意义的指标应该回到任务结果。对于生成式AI而言,“tokens per watt”比单纯FLOPS更接近实际价值;但即便是token,也要看生成的是何种token、在什么任务中产生、最终是否转化为真正的智能输出与业务成果。 黄仁勋的意思并不复杂:工程团队最容易犯的错误,就是找到一个方便量化的指标,然后把组织的全部努力都导向它,最后获得了漂亮数字,却没有得到更好的产品、更强的智能或更高的用户价值。

这背后仍然是系统思维。不同实验室、不同客户、不同应用都有各自评估标准,如果底层平台为某一种任务过度定制,就会在其他场景丧失可扩展性;但如果追求绝对通用,又会沦为“什么都能做,但什么都不突出”的平庸机器。 黄仁勋把这种平衡称为一种近乎“艺术”的工作:既要抓住足够大的通用市场以支撑研发投入,又要在关键场景上提供远超通用平台的性能密度。

开放模型的意义,不只是“免费”

对于开源与闭源之争,黄仁勋给出的答案并不极端。他明确承认,当前最强的前沿模型产品非常有用,英伟达内部也大量使用Anthropic和OpenAI等模型,并且公司工程师已经普遍在AI代理辅助下工作。 从实用主义角度看,他并没有把“开放”浪漫化,而是承认现阶段闭源前沿模型在产品化、工具链和整体体验上往往更成熟。

但他同时强调,开放模型依然极其重要,原因至少有三层。第一,语言模型是对人类知识与智能结构的一种编码形式,不能只由少数公司垄断其基础能力。 第二,很多语言、很多地区、很多专业领域并不会自动成为大公司优先投入的对象,因此需要近前沿的开放模型作为底座,让不同国家、不同社区、不同学科可以在其上做本地化微调和二次开发。 第三,更关键的一点在于安全:如果希望AI安全、可验证、可防御,那么系统必须尽可能透明,因为完全黑箱的能力系统既难以审计,也难以构建可靠的防护体系。

他进一步把“开放”扩展到语言之外。黄仁勋提到,英伟达推动的不只是通用语言模型,还包括生物、自动驾驶、机器人、气候科学等多个领域的基础模型,因为这些领域的数据结构、表示方式、训练方法与互联网文本完全不同,单靠现有通用语言模型无法自然覆盖。 在他的叙述里,开放模型的真正使命,不是做一个GitHub上可下载的替代品,而是为尚未被充分市场化、但极有价值的科学与产业领域搭起第一块基础设施。

教育正在被AI重新组织

如果说计算机系统层面正在重构,那么教育层面也正在发生结构性变化。黄仁勋直言,AI不应该只作为“学习对象”进入课程体系,更应该成为“学习工具”嵌入整个教育过程。 传统教材的编写周期很长,更新缓慢,难以追上AI领域以周甚至以天为单位的知识变化速度;因此,未来教育很可能是“第一性原理教材”与“AI实时研究助手”结合的形态。

他的说法很接地气:很多人今天仍然把AI理解成“帮你总结文档的工具”,但实际上,AI在阅读、归纳、关联其他论文、回答问题和模拟研究讨论时,已经越来越像一个随叫随到的研究伙伴。 这意味着,学生的学习方式会从“顺着教材线性吸收”转向“围绕问题动态探索”,教师的角色也将从单纯传授知识转向帮助学生建立问题意识、判断框架和学术品味。

不过,黄仁勋并没有因此否认经典教材的价值。相反,他特别为第一性原理辩护,认为底层方法论并不会因为AI热潮而过时。 他回忆自己在斯坦福时期,一边接受系统性的理论训练,一边在工业界实践芯片设计,正是这种“现实问题 + 基础理论”的双重路径,让人更容易真正理解技术变化。 按照他的看法,AI最理想的教育作用,不是替代基础教育,而是把基础原理与当代真实问题更紧密地连接起来。

算力不是只有“缺货”这一种解释

关于高校和研究机构普遍感受到的“算力短缺”,黄仁勋给出了一个带有争议但很有启发性的判断:问题未必是芯片不存在,而是机构本身并没有建立起获取和组织大规模计算资源的预算与治理方式。 在谈到斯坦福时,他指出,大学内部通常按院系、课题组和 grant 独立分散筹资,这套机制适合实验室小规模科研,却不适合建设一个需要跨学科共享、按峰值需求配置的大型AI超算平台。

他的意思并不是否认供需紧张,而是强调组织方式本身已经过时。过去几十年,很多高校和研究机构从集中式计算走向“人人一台电脑”的分散式模式,这种结构在传统科研里足够,但在今天需要大模型训练、仿真、生物计算和多智能体实验的环境下,已经无法满足前沿研究对集中式算力池的依赖。 因此,他主张高校应当像过去建设大型科学装置一样,重新建设校园级共享超算,把算力看成新的基础科研设施。

这一判断的现实含义很强。AI竞争表面上看是模型能力之争,实质上也是组织能力之争:谁能把预算、基础设施、软件栈和人才使用方式重新设计好,谁就更可能率先释放创新活力。 对大学而言,这不只是买更多GPU的问题,而是是否愿意从“分散课题制”走向“共享平台制”的结构调整。

能源约束,将成为下一阶段主战场

黄仁勋还把讨论进一步推向了更宏观的层面:如果未来计算是持续生成、持续运行的,那么能源会成为整个AI时代最硬的基础约束之一。 他判断,未来计算所需的能源总量可能比现在高出数个数量级,哪怕具体倍数会修正,这一方向也不会改变。 在这种前提下,芯片与系统厂商首先能做的是持续提升能效,也就是通过架构、互连和co-design不断提高“每瓦可产生的有效智能输出”。

但只提升单机能效远远不够。黄仁勋认为,市场对算力和能源的需求已经强到足以推动新一轮电网升级、可持续能源投资以及更大规模基础设施建设。 在他看来,过去很多可持续能源项目高度依赖补贴,而现在,AI对电力的真实支付能力正在使这些项目获得新的经济驱动力。 也就是说,AI不只是消耗能源的产业,也可能倒逼整个能源系统加速现代化。

从失败中学到的,不只是技术

谈到个人和公司的失误,黄仁勋没有回避早期错误。他承认,英伟达第一代图形架构在很多技术选择上“几乎全都错了”,但恰恰是在这种接近毁灭性的挫折里,公司学会了如何在技术错误之上做出战略正确的转向。 他强调,技术选择固然重要,但企业真正能否活下来,往往取决于如何理解市场、如何配置资源、如何在不确定中保留足够的战略机动性。

他还举了进入移动市场的例子,认为那是自己后来回看会定义为“真正的战略错误”的决定:公司曾把大量资源投入移动设备,并一度做到十亿美元级业务,但在3G到4G过渡期被关键环节锁死,最终这条线几乎归零。 这段经历让他更深刻地理解,企业并不是什么机会都该追,进入一个表面巨大但核心价值链并不由自己掌控的市场,可能只是消耗战略资源。 不过,这段投入积累的低功耗和高能效设计经验,后来又被转用于机器人等新方向,成为另一条技术谱系的起点。

这种复盘方式很能体现黄仁勋的管理哲学:失败并不自动转化为价值,但如果能把失败沉淀成对战略边界、资源约束和未来方向的更深理解,它就会成为公司长期竞争力的一部分。

如何判断未来:先观察,再回到第一性原理

在谈到“如何在未来形状尚不清晰时做判断”时,黄仁勋给出的答案高度一致:先看见现实中的异常信号,再一路拆回第一性原理。 他举AlexNet和深度学习突破为例,认为真正重要的不是“看到一个新模型”,而是意识到这个模型在一次跃迁中就击穿了此前多年计算机视觉路线的天花板,这种幅度本身就是“范式变化”的证据。

接下来要问的,不是它今天有多好,而是它会把哪些旧问题重新打开,会把哪些旧系统逼到失效,又会要求什么样的新计算平台。 顺着这个逻辑不断推演,企业才能逐步建立对未来工作负载、未来市场规模、未来系统形态的心理模型,并在尚未完全确定时,先朝一个大方向下注。

黄仁勋也承认,这种推演不可能永远准确。现实世界里,正确的战略往往不是“百分之百猜中未来”,而是在大致方向正确的前提下,以较低的机会成本保留调整空间,不断在行动中修正。 这也是为什么他反复提到“optionalities(选择权)”的重要性:在不确定时代,比一次性押中所有细节更重要的,是让自己始终有能力继续向正确方向移动。

这场谈话真正传递了什么

如果把这场长谈压缩成一句话,黄仁勋真正想传递的并不是“英伟达为什么成功”,而是“AI时代的工程师必须重新学习如何思考系统”。 在他看来,未来最有价值的人,不是只会写一点模型调用代码的人,也不是只盯某个局部指标做极致优化的人,而是能够理解工作负载、系统瓶颈、组织方式、能源约束和产业结构之间联动关系的人。

这也是为什么他反复鼓励学生:现在进入计算机科学,是因为你们正好站在一次底层范式切换的起点。 当整个计算栈都在重写时,年轻工程师并不是只能适应变化的人,他们完全可能成为重新定义机器的人。

对普通读者来说,这场谈话也提供了一个重要启示:AI竞争从来不只是模型排行榜上的一串分数,它同时是一场关于系统设计、基础设施、开放生态、教育组织和能源供给的综合竞争。 谁能把这些看似分散的问题连接起来,谁才真正接近下一个时代的入口。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

Techub News的精选文章

1小时前
跨界破圈燃动京城 AI 极客争霸赛完美收官
3小时前
深度解读《 CLARITY 替代修正案背后的三个底层逻辑,美国加密监管在下一盘什么大棋?》
3小时前
从火箭、人工智能到言论平台:Joe Rogan 对谈 Elon Musk 内容整理
查看更多

目录

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

相关文章

avatar
avatarOdaily星球日报
1小时前
何一最新访谈:我的野心,是有一个配得上我的世界
avatar
avatarTechub News
1小时前
跨界破圈燃动京城 AI 极客争霸赛完美收官
avatar
avatarTechub News
3小时前
深度解读《 CLARITY 替代修正案背后的三个底层逻辑,美国加密监管在下一盘什么大棋?》
avatar
avatarTechub News
3小时前
从火箭、人工智能到言论平台:Joe Rogan 对谈 Elon Musk 内容整理
APP下载
Windows
Mac

X

Telegram

Facebook

Reddit

复制链接