本文作者:钱钟书

英伟达杀手锏 GPU 推迟发布,或致数百亿美元订单泡汤,客户信任危机爆发

英伟达杀手锏 GPU 推迟发布,或致数百亿美元订单泡汤,客户信任危机爆发摘要: 英伟达杀手锏 GPU 推迟发布,或致数百亿美元订单泡汤,客户信任危机爆发但种种迹象显示,被硅谷巨头们寄予厚望的Blackwell,可能真的要“跳票”了。答案是完全有可能,甚至未来五...

陷入大麻烦了。

据外媒报道,英伟达最新的杀手级功能——同架构的AI GPU将从今年第三季度推迟到2025年第一季度,据称这款GPU存在设计缺陷,因此需要推迟产品以解决问题。

此次延迟直接影响到微软、Meta、xAI等大客户2024年澳彩综合资料大全,这些客户共订购了价值数百亿美元的芯片,而且关键数据中心的建设也可能受到影响。

有从业者表示,这可能会导致失去客户的信任,并且可能会遭到起诉。

尽管的发言人很快做出回应称:“的需求非常强劲,下半年的产量将逐步增加。”

但种种迹象表明,硅谷巨头们所寄予厚望的事情可能真的要“推迟”了。

硅谷巨头的“白月光”

使用该架构的B100/B200芯片在GTC大会上亮相时,华尔街某知名投行发布了这样的预测:

“这些芯片将推动英伟达数据中心业务的收入从 2024 财年(截至 2024 年 1 月)的 475 亿美元增至 2025 年的 2000 多亿美元。”

众所周知,的高性能计算卡在大型模型的训练和部署中起着至关重要的作用,但它们真的能仅凭一己之力就将性能提升一倍吗?

答案是肯定的,即使未来5年,硅谷巨头之间的军备竞赛也将完全围绕硬件层面的架构芯片展开。

首先需要明确的是,这不是一颗芯片,而是一个平台,可以看作是对过去架构的延伸,但其性能却实现了全方位的碾压。

芯片架构方面,在H200上继承了“组装芯片”的思路,采用统一显存架构+双核配置,将两块GPU Dies(裸晶)拼接成一块GPU,实现了192GB HBM3e显存、8TB/s显存带宽。

与上一代产品架构GPU相比,该架构GPU的单芯片训练性能(FP8)是该架构的2.5倍,推理性能(FP4)是该架构的5倍。

该架构的能耗表现同样可圈可点,在GTC大会上,黄仁勋提到了一个例子:

“训练一个1.8万亿参数的模型需要8000块GPU和15MW的电力,而2000块GPU仅需4MW的电力就能完成这项工作。

英伟达摊上大事儿了__英伟达摊上大事儿了

除了性能和功耗之外,该架构真正的杀手锏是其采用了“第二代引擎”和“第五代网络技术”。

前者通过每个神经元的精度由8位提升至4位,使计算能力、带宽、模型参数规模提升一倍;后者大幅提升GPU集群的通信效率,支持最多576块GPU之间无缝高速通信,解决了万亿参数混合专家模型的通信瓶颈问题。

在科技巨头纷纷押注AI、建设自有数据中心的今天,架构芯片所展现出的特性让他们没有理由拒绝。

然而,即使是这样突破性的平台也可能存在设计缺陷。

如上文所述, 的设计思路是将两块 die 封装在一块 GPU 上,以实现显著的性能提升,但这也带来了隐患。据 The Verge 援引业内人士的话称,最近几周台积电工程师在准备量产时发现,这种架构的连接设计存在缺陷新澳精准资料免费提供,会对芯片的良率和产能造成严重影响。

因此,原定的量产计划被迫终止,需要重新设计布局,之后台积电也未获准进行另一轮试产。

谁会受伤?

采用相同架构的 RTX50系列显卡也可能受到该设计缺陷的影响。

据最新消息,原本预计在今年第四季度发布的RTX 50系列,要到明年1月7日至10日举办的CES 2025展会上才会发布。与面向AI的B100/B200等高性能GPU显卡不同,RTX系列是面向游戏玩家开发的显卡系列,若不能如期发布,带来的负面影响不容小觑。

当然,受害最深的还是硅谷的互联网巨头们。

AI热潮中,科技巨头斥资数十亿美元购买高性能计算卡的现象屡见不鲜,而AI问世后,这些公司似乎为其准备了更多“弹药”。

根据最新季度财报显示,微软、亚马逊、Meta等巨头在2024年前六个月均大幅增加了资本支出。不仅如此,为了保持在AI军备竞赛中的领先地位,这些巨头还上调了支出指引英伟达杀手锏 GPU 推迟发布,或致数百亿美元订单泡汤,客户信任危机爆发,表明GPU采购需求持续增加。

这些热钱大部分都流向了“铲子卖家”英伟达。

作为英伟达最大的客户之一2024香港开奖结果记录,微软已设定目标,将在 2024 年底前储备 180 万块 AI 芯片,并计划于明年 1 月向微软提供使用这些芯片的服务器。金融服务公司 DA 分析师估计,微软去年在英伟达芯片上花费了 45 亿美元(325.6 亿元人民币),并计划到 2024 年将拥有的 GPU 数量增加两倍。

Meta 也在为此次盛会做准备。在 GTC 大会亮相的第二天,扎克伯格就发表声明称,Meta 计划用它来训练 Llama 模型。根据扎克伯格今年年初的披露,Meta 计划在年底前储备约 60 万块高性能 GPU,其中 35 万块将是使用该架构的 H100 芯片,其余 25 万块则极有可能是为该架构芯片预留的。

值得一提的是,宣称要自行研发 AI 芯片的马斯克也对 X 表现出了极大的兴趣,并计划在 2025 年采购 30 万块 B200 GPU,总金额高达 90 亿美元(约合人民币 652 亿元)。这些新 GPU 将升级 X 现有的 AI GPU 集群,目前该集群由 10 万块上一代 H100 GPU 组成。

随着下一代大型模型所需算力倍增,巨头间的算力军备竞赛再创新高,AI巨头对B200的需求也与日俱增。此次,的意外推迟,让这场看似没有尽头的战争变得更加扑朔迷离。

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

评论列表 (暂无评论,20人围观)参与讨论

还没有评论,来说两句吧...