Nvidia将在2027年之前向亚马逊网络服务提供大量GPU,因为这家云服务提供商正在增强其AI基础设施并寻求满足日益增长的需求。
AWS 早些时候宣布,计划在其扩展的AI基础设施建设中部署大约100万个Nvidia GPU。一位Nvidia高管证实,该计划预计将在2027年底之前进行。
AWS表示,从今年开始在其全球云区域展开,将与Nvidia在网络和其他基础设施上进行扩展合作,以构建“能够在复杂工作流程中进行推理、规划和自主行动”的系统,并提到了其在自主AI系统上的工作。
AWS继续开发用于训练和推理的AI芯片。这一合作表明,需求可能正在AI堆栈中发生转变,同时越来越多的活动似乎与在实时服务中运行模型有关。
此次交易正值美国检察官追查一起指控Nvidia芯片被走私至中国的案件,使该公司的全球供应和管控再次受到审查。
自2022年以来,Nvidia最先进的芯片一直受到严格控制,作为美国限制中国在高端计算和AI领域进展的更广泛战略的一部分。
周四在本土的这一动态几乎可以进一步扩大这一差距。
节奏的变化
观察家们表示,交易结构提供了关于需求增长及基础设施以越来越快的速度变化的线索。
“Nvidia正在成为云服务提供商底层的基础设施层,而不仅仅是他们的芯片供应商,”战略与增长工作室ZenGen Labs的联合创始人Dermot McGrath对Decrypt说道。
该交易中的芯片旨在大规模运行AI模型,重点是降低使用成本,McGrath表示,推理现在约占AI计算的三分之二,而在2023年时约为三分之一。
他补充说,专注于推理的芯片市场预计将在2026年前超过500亿美元,并引用了德勤的估计。
AWS可以在同一系统中同时使用Nvidia和自己的芯片,给予客户比那些保持封闭的竞争对手更多选择,McGrath解释道,并补充说这种灵活性“是一个差异化因素。”
“现在Nvidia正在做相同的事情,但在底层,通过网络和机架架构而非编程模型,”他说。
推理芯片是设计用于实时运行经过训练的AI模型的处理器,而不是需要重新训练。
对推理的需求“正在推动对更多计算能力的长期承诺”,并建立了云提供商与芯片制造商之间更紧密的联系,政策策略师及基础设施公司Gather Beyond创始人Pichapen Prateepavanich对Decrypt说道。
“云服务提供商希望在长远中保持独立,但在短期内,他们需要Nvidia以保持竞争力,”她说,并指出这创造了一种协作与竞争同时发生的动态。
尽管如此,AI基础设施的控制也在变化。
正在发生的是一种“基础设施翻转”,AI主导投资基金Boardy Ventures的交易合伙人Berna Misa对Decrypt说道。
Nvidia正在“将其完整的堆栈嵌入到AWS数据中心,这些数据中心多年来运行着专有设备,”她说。
但尽管AWS正在开发自己的AI芯片,这“并没有改变数学”,她解释说,推理依赖于堆栈中的多个组件,而Nvidia提供了其中大部分。
“当你与客户的堆栈深入到这个层级时,切换成本以及由此产生的上下文层就成为了护城河,”她说。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。