英伟达的路线图将每年更新
在最近的演讲中,黄仁勋详细阐述了英伟达芯片产品的年度升级周期计划,该计划将坚持遵循数据中心规模、年度更新频率、技术约束以及统一架构的发展路径。
具体而言,英伟达将依托当前最先进的半导体制程技术,通过采用统一的架构来覆盖整个数据中心GPU产品线,并致力于实现每年一次的产品更新迭代。
黄仁勋强调指出,英伟达凭借CUDA+GPU的组合策略,成功构建了安装量持续增长、开发者及应用日益丰富、研发规模不断扩大、性能持续提升的良性生态循环。
目前,CUDA生态已遍布全球各地,得到了广泛应用。
例如,谷歌已宣布将cuDF纳入其云计算平台,以加速世界范围内受欢迎的数据科学库Pandas的运行。
此外,在深度学习cuDNN、物理模拟Modulus、通信Aerial RAN、基因序列分析Parabricks以及量子计算模拟cuQUANTUM、数据处理cuDF等多个领域,均有专业的CUDA软件提供支持。
黄仁勋表示,英伟达的路线图将保持年度更新的节奏,其核心思想在于[构建数据中心规模的产品体系,以年度为周期逐步推进并实现技术突破,向客户提供高质量的产品和服务]。
他进一步承诺,英伟达不会满足于现状,将继续致力于提升产品性能、降低训练和推理成本,以及拓展AI功能,以满足不断增长的市场需求和技术挑战。
量产Blackwell及Rubin架构的路线图亮相
今年三月,英伟达在其盛大的年度GTC大会上,正式发布了具备2080亿晶体管的Blackwell芯片。
这款芯片是英伟达首次采用MCM(多芯片封装)技术设计的GPU,实现了在同一芯片上集成双GPU的突破。
英伟达创始人兼CEO黄仁勋在会上指出,在短短八年的时间里,英伟达的AI算力实现了惊人的飞跃。
从2016年Pascal芯片的19 TFLOPS,到2024年Blackwell芯片的20000 TFLOPS,算力提升了高达1000倍,这一增速几乎超越了摩尔定律在最佳时期的发展速度。
搭载Blackwell芯片的最新DGX超算系统在各项性能指标上均实现了显著提升。
相较于上一代Hopper系统,Blackwell系统不仅在NVLink域集成了72个GPU,实现了性能9倍的提升,同时在NVLink带宽方面也实现了18倍的增长,AI算力更是提升了45倍,供能效率也提高了10倍。
目前,市场对GB200充满期待,业界普遍预测,到2025年,GB200的出货量有望突破百万颗,占据英伟达高端GPU出货量的近40%至50%。
此外,黄仁勋还公布了英伟达未来三代芯片的发展路线图,包括计划于2025年推出的Blackwell Ultra,2026年亮相的Rubin,以及2027年预计推出的Rubin Ultra。
值得一提的是,这也是下一代AI平台Rubin的首次公开亮相。
目前,英伟达已经开始量产其高性能GPU架构Blackwell,相关产品将陆续上市,包括适用于HPC/AI领域的B200/GB200系列,以及面向游戏市场的RTX 50系列。
同时,黄仁勋还透露了Rubin架构的未来发展蓝图,该架构将配备全新的GPU、基于Arm架构的Vera CPU,以及采用NVLink 6、CX9 SuperNIC和X1600融合InfiniBand/以太网交换机的高级网络技术。
展望未来,英伟达将继续按照既定的发展计划推进芯片研发与生产。
预计2024年Blackwell芯片将全面投入生产,2025年推出Blackwell Ultra产品,2026年发布Rubin系列,最终在2027年推出集大成之作——Rubin Ultra,并配备基于Arm的Vera CPU和先进的NVLink 6 Switch技术。
数据中心将进入数百万GPU时代
NVIDIA创始人兼CEO黄仁勋正式宣布,公司将每年定期推出全新的Spectrum-X系列产品。
作为全球首款专为AI领域打造的以太网网络平台,NVIDIA Spectrum-X相较传统以太网网络平台,在网络性能上实现了显著提升,高达1.6倍,有效加速了AI工作负载的处理、分析以及执行速度。
在Spectrum-X系列中,Spectrum-X800专为数万个GPU量身打造,而X800 Ultra则针对数十万个GPU进行了优化,至于X1600,其扩展能力可支持至数百万个GPU,展现出强大的灵活性与可扩展性。
目前,在竞争激烈的高性能以太网市场中,NVIDIA Spectrum-X亦面临着来自行业巨头如Intel和Mellanox的强劲挑战。
值得一提的是,CoreWeave、GMO Internet Group、Lambda、Scaleway以及STPX Global Yotta等众多领先的AI云服务提供商已率先采用NVIDIA Spectrum-X,为其AI基础设施带来了前所未有的极致网络性能体验。
用Isaac生态系统迎接机器人时代
黄仁勋明确指出,英伟达正致力于通过推进机器人技术堆栈以加速物理AI的生成。
这一进程涵盖了多个关键组件,包括适用于模拟应用的Omniverse平台、具备人形基础模型特征的Project GR00T,以及提供强大计算能力的Jetson Thor机器人计算机。
英伟达发布的NVIDIA Isaac平台,旨在为开发人员提供一套功能强大的工具集合,用以构建各类AI机器人,这些机器人类型广泛,包括但不限于自主移动机器人(AMR)、工业机械手臂以及人形机器人。
这一平台的强大能力得益于AI模型的支持,以及Jetson Orin和Thor等超级计算机的运算能力。
NVIDIA Isaac Lab作为Isaac Sim中的参考应用程序,特别针对AI机器人基础模型的训练进行了优化,包括强化学习、模仿学习和迁移学习等多种方法。
这一功能为机器人应用提供了强大的基础模型训练支持,覆盖了多个应用场景,从而显著提升了机器人的性能和智能化水平。
目前,Isaac生态系统正经历着迅猛的发展。全球多家领先的机器人行业企业,如比亚迪、西门子、泰瑞达和Intrinsic等,已将NVIDIA Isaac加速库、基于物理学的仿真技术以及AI模型集成至其软件框架和机器人模型中。
这些举措极大地提高了工厂、仓库和配送中心的工作效率,使得机器人成为执行重复性、高精度任务的智能助手,为各行各业带来了革命性的变革。
新一轮工业革命开始,AI工厂正在诞生
在今年的五月份财报会议上,黄仁勋明确指出,下一场工业革命已然拉开帷幕。
此次革命不仅限于云服务提供商,生成式AI技术已广泛渗透到消费互联网公司、各类企业、主权AI、汽车制造以及医疗保健等诸多领域,成功塑造了多个价值数十亿美元的垂直市场。
英伟达,作为技术领域的领军企业,正站在新一轮增长浪潮的起点之上。
为积极响应并推动此次技术革命,英伟达携手众多制造厂商,共同推出了一系列基于NVIDIA Blackwell架构的先进系统。
这些系统不仅配备了Grace CPU,还融入了NVIDIA领先的网络和基础设施技术。
为加快不同规模与配置的系统开发进程,英伟达旗下的MGX模块化参考设计平台已全面支持这一系列新系统。
英伟达向世界展示了一个全新的未来图景,即加速计算正成为引领新一轮产业革命的核心力量。
人类首次通过仅3万亿美元的IT产业,创造出能够直接服务于100万亿美元产业的全方位技术解决方案。
此外,随着传统软件工厂向现代化AI工厂的转型,我们见证了从CPU到GPU、从信息检索到内容生成、从简单指令处理到大模型应用、从单一工具使用到多元技能融合的全面升级。
这一变革不仅推动了技术栈的深刻重塑,更预示着未来产业发展的无限可能与广阔前景。
建立350+加速库,算力将增长1000倍
为了充分发挥GPU加速计算的潜力,开发专业的加速库显得尤为重要。
英伟达团队已成功推出超过350个面向特定领域的加速库。
这些卓越的加速库囊括了业界闻名的深度学习加速库cuDNN、物理模拟库、5G无线电加速库Aerial、芯片制造加速平台Coolitho、基因测序加速库Pair of Bricks以及组合优化加速库Co OPT等。
它们被广泛应用于医疗健康、金融、计算机、汽车等多个行业领域,并深入覆盖至科学研究的前沿阵地,如量子计算机仿真系统Coup Quantum等。
值得一提的是,谷歌云端已率先部署了英伟达的数据处理加速库QDF,使得广受欢迎的数据科学库Pandas的性能得以数百倍的提升。
在展望未来时,黄仁勋公开披露了英伟达的长期战略规划蓝图。
公司已为未来八年做好了充分准备,预计届时算力将实现惊人的千倍增长。
为实现这一具有里程碑意义的宏伟目标,黄仁勋先生透露了英伟达即将启动的重大举措——即实施令牌(Token)计划。
展望未来,无论编写何种类型的代码,都需要将其转化为AI系统能够理解的令牌序列。
英伟达期望通过这一创新性的方式,构建出一个真正统一的AI编程模型,为未来的科技发展奠定坚实基础。
结尾:
业内人士普遍认为,科技巨头们致力于追求的核心目标,便是率先实现通用人工智能的突破。
尽管目前尚无法准确预测AGI的实现还需多久,但显而易见的是,在新一轮的创新周期中,AI将成为决定科技竞争格局的关键因素。