欢迎访问
ChatGPT助力英伟达狂飙,GPU需求或将超过供应
2023-02-28 来源:中关村在线
669

关键词: 人工智能 芯片 ChatGPT

据路透社报道,随着人工智能热潮的兴起,英伟达有望成为芯片制造商中最大的赢家——尽管不是唯一的赢家。


人工智能已成为科技行业投资的亮点,该行业增长放缓导致大规模裁员和实验性投资减少。

但兴趣激增帮助 Nvidia 周三公布了好于预期的季度收益,并预测销售额高于华尔街预期,这与竞争对手英特尔公司预计亏损和削减股息形成鲜明对比。

第四季度,英伟达总营收为 60.5 亿美元,下降 20.8%,净收入下降 52.9% 至 11.4 亿美元。Nvidia 的现金储备同比减少 37.3% 至 133 亿美元,但实际上比上一季度略有增加。与 2023 财年第三季度相比,收入环比略有增长,净收入增长了一倍多,因此在许多方面都比上一季度好。但它显然不如去年同期那么令人印象深刻。



与 PC 业务紧密相关的图形业务再次经历了糟糕的季度,收入下降 46.2% 至 23.8 亿美元。但随着 GPU 卡库存逐渐减少并基本恢复平衡,以及“Ada”GeForce 40 系列卡开始增加,图形组有所改善。

计算和网络部门公布的销售额为 36.7 亿美元,环比增长 13.9%,全年销售额略高于 150 亿美元,与 2022 财年相比全年增长 36.4%。


GPU市场的王者

图形处理单元旨在非常高效地处理人工智能计算中涉及的特定类型的数学,而英特尔的通用中央处理器 (CPU) 可以以较低的效率处理更广泛的计算任务。但人工智能正在接管科技行业,据研究公司 Gartner 称,到 2026 年,数据中心使用的 GPU 等专用芯片的份额预计将从 2020 年的不到 3% 上升到 15% 以上。

AMD是 GPU 行业的第二大玩家,其股价在周三 Nvidia 财报公布后也有所上涨,市场份额约为 20%。

“在硬件和处理方面引领 AI 革命的两家公司是 Nvidia 和 AMD,在我们看来,这两家公司遥遥领先于其他公司,”Piper Sandler 分析师 Harsh Kumar 说。

Lisa Su 领导的 AMD 近年来在 AI 方面进行了大量投资,包括一系列旨在与 Nvidia 最快的产品竞争的芯片。作为对比,英特尔占有不到 1% 的份额。

“对 ChatGPT 的热情及其解锁的潜在用例可能代表了人工智能采用的转折点,”持有英伟达 0.54% 股份的 AllianceBernstein 技术基金投资组合经理 Lei Qiu 表示。“虽然很难准确地确定今天人工智能占(Nvidia)收入的百分比有多大,但随着大型科技公司竞相开发类似类型的人工智能应用程序,它有可能呈指数增长,”Qiu 说。

英伟达在 AI 行业的实力也引起了风险投资家和初创公司的关注,他们正在投资数十亿美元,并承诺进行诸如降低电力消耗等改进。但到目前为止,它们都没有对 Nvidia 的业务造成重大影响。

所有这一切对英特尔来说都是坏消息,英特尔在数据中心和个人电脑行业的 CPU 市场份额也正在被 AMD 夺走,而 AMD 曾一度占据主导地位。该公司现在面临失去该行业下一个增长点的风险。近几个月来,它努力加强对 GPU 的关注,包括在 12 月将其图形芯片部门一分为二:一个专注于个人电脑,另一个专注于数据中心和人工智能。

不过,分析人士表示,在英特尔在市场上占有一席之地之前,该公司还有很长的路要走。

Wedbush Securities 分析师 Matthew Bryson 表示:“英特尔有更多的设计试图渗透(AI)市场,但迄今为止,尽管其解决方案过多,但它的牵引力令人失望。”




ChatGPT 助力英伟达狂飙

由于 AI 巨头利用 ChatGPT 和其他 AI 生成工具的需求增加,NVIDIA AI GPU 可能会面临短缺正如之前报道的,ChatGPT 和其他语言/图像/视频生成工具非常依赖 AI 处理能力,这就是 NVIDIA 的主要优势所在。这就是为什么利用 ChatGPT 的主要技术公司正在使用 NVIDIA 的 GPU 来满足他们不断增长的 AI 需求。看起来 NVIDIA 在这个行业的实力可能会导致公司 AI GPU 在未来几个月短缺。

据 FierceElectronics 报道,ChatGPT(Open.AI 的 Beta 版本)在 NVIDIA 的 10,000 个 GPU 上进行了训练,但是自从它引起了公众关注以来,系统因用户群体太大而无法满足需求。因此,公司宣布了一个新的 ChatGPT Plus 订阅计划,不仅在高峰期可以提供服务器的一般访问权限,还可以提供更快的响应时间和对新功能和改进的优先使用权。ChatGPT Plus 订阅每月 20 美元。

“未来有可能用其他厂商的 GPU 训练或运行 ChatGPT 或其他深度学习模型。然而,目前,由于高性能和 CUDA 支持,NVIDIA GPU 在深度学习社区中广泛使用。CUDA 是由 NVIDIA 开发的并行计算平台和编程模型,允许在 NVIDIA GPU 上进行高效计算。许多深度学习库和框架,例如 TensorFlow 和 PyTorch,都内置支持 CUDA,并且针对 NVIDIA GPU 进行了优化。”

根据福布斯的报告,微软和谷歌等大型科技巨头也计划将类似ChatGPT的语言学习模型(LLM)整合到他们的搜索引擎中。要使谷歌在每次搜索查询中集成该功能,需要512,820台A100 HGX服务器,共有4,102,568块A100 GPU,只是服务器和网络成本的资本支出就需要100亿美元。

Nvidia 是无可争议的 AI 芯片市场领导者,在数据中心的单调世界中,ChatGPT 等工具进行计算并输出结果。据 Omdia 估计,截至 2020 年,它在此类 AI 处理器中的份额约为 80%。

不过,有这么多资金可供争夺,其他芯片制造商也想加入其中。

英特尔公司首席执行官帕特基辛格周三表示,他的公司拥有一套广泛的芯片来应对生成人工智能的机会,包括面向人工智能计算的专业芯片、数据中心的图形芯片和新一代数据中心中央处理器——计算机的数字大脑——他说这在人工智能工作中表现良好。

“随着人工智能融入未来的每一个应用程序,我们期望的性能将成为计算的主流,”他说。

AMD为 AI 量身定制 CPU、图形芯片和其他硬件,同时押注运行该技术所必需的许多计算的大型云计算公司将大力投资芯片。AMD 首席执行官Lisa Su上个月底表示 ,这项业务明年应该会开始变得更有意义。

美国银行分析师 Vivek Arya 表示,到 2027 年,生成式人工智能每年可为整个人工智能芯片市场增加 200 亿美元。他说,Nvidia 应该能够保持至少 65% 的人工智能芯片市场份额。

互联网搜索巨头谷歌是Alphabet Inc.的子公司,本月展示了其称为 Bard 的ChatGPT 本土竞争对手。中国的百度公司正在开发一种名为 Ernie Bot 的类似于 ChatGPT 的人工智能聊天机器人,它计划在下个月推出。微软已经在其 Bing 搜索引擎结果中为用户提供了有限的 ChatGPT 体验。

至少在短期内,Nvidia 在 AI 领域的主导地位可能是它获利的最佳位置。该公司通过允许软件开发人员利用其图形芯片的特性获得了领先地位,这些芯片从大约 15 年前开始就被证明擅长 AI。瑞银分析师在一份报告中表示,现在,该公司的芯片是唯一可用于创建大规模 AI 语言系统的可行产品,并补充说,他们估计 ChatGPT 需要大约 10,000 个该公司的图形芯片来训练。

黄仁勋在财报说明会上建议该公司下个月可能会更新其潜在市场规模的前景,大约一年前,黄预测其从提供视频游戏芯片到汽车的业务将达到 1 万亿美元。

“由于生成式人工智能令人难以置信的能力和多功能性,以及去年年中和年底发生的所有融合突破,我们可能会迟早达到那个[市场规模],”他说。“毫无疑问,这对计算机行业来说是一个非常重要的时刻。”

Nvidia 正试图通过开始为企业提供云计算服务来更快地实现这一目标,以使用其硬件和软件开发生成式 AI 聊天机器人和其他工具。该服务将通过成熟的云计算公司提供,旨在降低人工智能在商业中的应用普及的门槛。

Nvidia 表示,它正在与所有主要的云计算提供商(包括亚马逊、微软和谷歌)就生成人工智能工具以及消费者互联网公司和初创公司展开合作。




“云服务”带来的新可能

与其他类型的软件(如网页服务)相比,它偶尔会以微秒为单位突发性地使用处理能力,而机器学习任务可能会占用整个计算机的处理能力,有时长达数小时或数天。

这意味着发现自己拥有热门 AI 产品的公司通常需要购买更多 GPU 来处理高峰期或改进他们的模型。这些 GPU 并不便宜。除了可以插入现有服务器的卡上的单个 A100 之外,许多数据中心还使用一个包含八个 A100 GPU 协同工作的系统。

这个来自Nvidia的,名为DGX A100的建议售价接近 200,000 美元,但它配备了所需的芯片。周三,Nvidia 表示将直接出售对 DGX 系统的云访问,这可能会降低修补匠和研究人员的入门成本。

很容易看出 A100 的成本是如何增加的。

例如,New Street Research 的一项估计发现,Bing 搜索中基于 OpenAI 的 ChatGPT 模型可能需要 8 个 GPU 才能在不到一秒的时间内响应问题。按照这个速度,微软将需要超过 20,000 台 8-GPU 服务器才能将 Bing 中的模型部署给每个人,这表明微软的功能可能需要 40 亿美元的基础设施支出。

“如果你来自微软,并且你想扩展它,以 Bing 的规模,那可能是 40 亿美元。如果你想扩展到谷歌的规模,每天服务 8 或 90 亿次查询,你实际上需要在 DGX 上花费 800 亿美元。” New Street Research 的技术分析师 Antoine Chkaiban 说。“我们得出的数字是巨大的。但它们只是反映了这样一个事实,即每个使用如此大型语言模型的用户在使用它时都需要一台大型超级计算机。”

根据 Stability AI 在线发布的信息,最新版本的图像生成器 Stable Diffusion 在256 个 A100 GPU或 32 台机器上进行了训练,每台机器有 8 个 A100,总计 200,000 个计算小时。

Stability AI 首席执行官莫斯塔克在 Twitter 上表示,以市场价格计算,仅训练模型就花费了 60 万美元,他在推特交流中暗示,与竞争对手相比,这个价格异常便宜。这还不包括“推理”或部署模型的成本。

Nvidia 首席执行官黄仁勋在接受 CNBC 的 Katie Tarasov 采访时表示,就这些模型所需的计算量而言,该公司的产品实际上并不昂贵。

“我们将原本价值 10 亿美元的运行 CPU 的数据中心缩小为 1 亿美元的数据中心,”Huang 说。“现在,1 亿美元,当你把它放在云端并由 100 家公司共享时,几乎什么都不是。”

Huang 表示,Nvidia 的 GPU 允许初创公司以比使用传统计算机处理器低得多的成本训练模型。“现在你可以用大约 10 到 2000 万美元构建类似大型语言模型的东西,比如 GPT,”Huang 说。“这真的非常实惠。”他补充说。

也许,在谈到这个英伟达“云服务”的时候,很多人会把他看作类似AWS、AZURE和谷歌这样的公有云竞争者。但按照nextplatform的说法,英伟达只是将其自己的 DGX 系统真正地放入大云中,这样客户就可以在云上使用与他们可以安装在自己的数据中心中的完全相同的服务。

“这类似于VMware在 2016 年秋季放弃云,与亚马逊合作构建 VMware Cloud on AWS的尝试”,nextplatform说。

但无论如何,在其他竞争对手还在挣扎的时候,英伟达似乎已经正式复苏并迈入了新时代。



Baidu
map