欢迎访问
英伟达展示全新一代Rubin架构,AI芯片仍旧是技术“高地”
2024-06-06 来源:贤集网
861

关键词: 英伟达 GPU 芯片

英伟达(NVIDIA)执行长黄仁勋在Keynote主题演讲中展示了全新一代的Rubin架构,显示其正在加速全新架构的推出脚步。

黄仁勋表示,Blackwell的下一代架构将是Rubin架构,且Rubin GPU将采用8颗HBM4,而Rubin Ultra GPU将采用12颗HBM4。

据悉,这个新的架构架构以美国天文学家Vera Rubin命名,她在理解宇宙中的暗物质方面做出了重大贡献,并在银河系旋转率方面做了开创性的工作。



值得一提的是,尽管英伟达才刚推出了新的Blackwell平台,但看起来英伟达正在加速其路线图。根据黄仁勋最新公布的信息,Rubin GPU将成为R系列产品的一部分,预计将在2025年第四季度量产。Rubin GPU及其相应平台预期将在2026年推出,随后在2027年推出Ultra版本。英伟达还确认Rubin GPU将使用HBM4存储器。

根据外媒wccftech的消息,英伟达的Rubin GPU将采用4x光罩设计,并将使用台积电的CoWoS-L封装技术,并采用N3制程。此外,英伟达将使用下一代HBM4 DRAM来为其Rubin GPU提供动力,目前英伟达在其B100 GPU中使用最快的HBM3E存储器,并预计在2025年底当HBM4存储器解决方案大幅量产时,用HBM4版本来更新这些芯片。


GB200供应链已启动,预计将催生相应增量市场

英伟达Q1营收260亿美元,同比增长262%;净利润148.1亿美元,同比上升628%,均超预期。英伟达CEO黄仁勋表示,预计今年Blackwell架构芯片将带来大量收入;Blackwell架构芯片(B200/GB200)将于二季度发货,并将于三季度增产

GB200供应链已启动,预计2025年的订单和供应链配置将在未来几个月中得到最终确认。根据摩根士丹利预测,基于CoWoS(先进封装技术的一种)的产能分配,2024年下半年预计将有42万颗GB200超级芯片交付至下游市场,2025年预计产量为150万~200万颗。

GB200的研发过程对封装和测试环节提出新要求,预计将催生相应增量市场。英伟达的目标是在当前光刻技术的芯片尺寸极限上来实现计算速度的极限,而不是通过减小芯片尺寸和使用芯片组来提高产量。GB200的高性能设计需要更先进的测试设备和技术来检测潜在的缺陷,确保每一个芯片的高可靠性。芯片尺寸的加大会导致芯片的合格率下降,进而促进对半导体测试的需求增长。随着HBM速度和容量的提升,内存测试器、探针卡和探测器的需求将会上升,将推动芯片级测试的更广泛应用。



Blackwell即将迎来放量

黄仁勋强调,英伟达也将加快其他所有芯片的更新速度,以匹配这一节奏。“我们将以非常快的速度推进所有产品线。”“新的 CPU、新的 GPU、新的网络网卡、新的交换机…… 即将迎来大量芯片新品。”

在近日的财报电话会议上,当被询问有关最新款 Blackwell GPU 如何在上一代 Hopper GPU 仍畅销的情况下快速放量的问题时,黄仁勋解释说,英伟达新一代人工智能 GPU 在电气和机械方面都可实现向下兼容,并且可以运行相同的软件。他表示,客户在现有数据中心可以“轻松地从 H100 过渡到 H200,再过渡到 B100”。

为了解释对英伟达人工智能 GPU 的巨额需求,黄仁勋还在电话会议中分享了一些销售观点:

在我们过渡到 H200 和 Blackwell 的过程中,预计将迎来一段供不应求的时间。所有人都想要尽快让他们的基础设施上线运行,理由是这些产品可以帮助他们更好地节省成本并创造利润,所以他们都希望尽早实现这一点。

他还风趣地引用了“错失良机” (FOMO) 效应来佐证他的观点:

下一个率先登顶下一座重要高峰的公司将能够发布开创性的 AI 产品,而紧随其后的公司只能发布一些性能提升 0.3% 的产品。你是想成为引领人工智能革命的公司,还是只想带来一些微小改进的公司呢?

英伟达首席财务官还强调汽车行业将成为其“数据中心领域今年内最大的企业细分市场”,并透露特斯拉已经购买了 35000 枚 H100 GPU 用于训练其 FSD 系统,同时像 Meta 这样的“消费者互联网公司”也将继续保持“强劲的增长势头”。

英伟达表示,一些客户已经购买或计划购买超过 10 万枚英伟达的 H100 GPU – Meta 计划到年底在其运营系统中部署超过 35 万枚。


AMD紧跟英伟达步伐

6月3日,AMD董事长兼CEO苏姿丰在Computex 2024展会的开幕主题演讲中,公布了全新云端AI加速芯片路线图,今年将会推出全新Instinct MI325X。

根据AMD公布的全新云端AI加速芯片路线图显示,AMD今年将会推出全新的AI加速芯片Instinct MI325X,2025年推出MI350,2026年推出MI400。



据介绍,MI325X将延续CDNA3构架,采用第四代高带宽内存(HBM) HBM3E,容量大幅提升至288GB,内存带宽也将提升至6TB/s,整体的性能将进一步提升,其他方面的规格则基本保持与MI300X一致,便于客户的产品升级过渡。

苏姿丰指出,MI325X的AI性能提升幅度为AMD史上最大,相较竞品英伟达H200将有1.3倍以上的提升,同时更有性价比优势,MI325X将于今年第四季度开始供货。

另外,AMD还将在2025年推出新一代的MI350系列,该系列芯片将采用3nm制程,基于全新的构架,集成288GB HBM3E内存,并支持FP4/FP6数据格式,推理运算速度较现有MI300系列芯片快35倍。

据供应链信息透露,MI350将进入液冷世代,为AI服务器运算提供更强的算力、更佳的能源效率。

2026年,AMD还将会推出新一代的MI400系列,保持一年一更新的节奏。



Baidu
map