欢迎访问
今年AI芯片供应偏紧,但行业巨头不会坐以待毙
2024-02-29 来源:贤集网
3394

关键词: 人工智能 芯片 半导体

ChatGPT、Sora等大模型带动下,AI人工智能正成为全球半导体行业复苏的关键动力,AI芯片产能成为业界关注焦点。

近期,台积电创办人张忠谋出席日本熊本厂JASM开幕仪式,其表示,半导体产业未来一定会有更多需求,最近AI人士告诉他需要的不只是几万、几十万和几千万片产能,而是3间、5间甚至10间晶圆厂。

对此,张忠谋表示不完全相信上述数据,但他认为AI带给半导体产业的需求,在某种程度上取一个中间值,即从成千上万片产能到10间晶圆厂中间找寻到答案。



AI火热发展态势之下,AI芯片需求持续高涨,部分芯片出现供不应求现象。

稍早之前,富士康母公司鸿海精密工业股份有限公司董事长刘扬伟便表示,鸿海今年AI服务器业务相当好,但目前整体AI服务器产业仍面临AI芯片大缺货的状况,即便下半年AI芯片供应舒缓一些,还是赶不上需求,必须等到上游新厂产能开出,才有办法解决产业链缺料问题。


AI芯片供不应求状况将贯穿全年

英伟达发布2024财年财报,首席执行官黄仁勋指出,AI芯片供不应求将贯穿全年,这一现象不仅是供应链挑战,更折射出人工智能发展的巨大需求。在科技领域,我们看到了一场前所未有的技术革命,而AI芯片的不足成为这一革命中的瓶颈。

从去年开始,负责英伟达AI芯片的制造及封装的台积电(TSMC)在先进封装方面的产能变得紧张,为此不断扩大2.5D封装产能,以满足持续增长的产能需求。此前有报道称,台积电整全力以赴应对CoWoS封装产能的高需求,计划今年将产能翻倍。

据UDN报道,由于先进封装产能长期短缺,导致英伟达AI芯片供应紧张,之前已经寻求其他途径试图增加先进封装产能,现在已经将目光投向英特尔,作为其高级封装服务的提供商,以减缓紧张的供应形势。除了在美国,英特尔在马来西亚槟城也有封装设施,而且制定了一个开放的模式,允许客户单独利用其封装解决方案。

预计英特尔最早会在今年第二季度开始向英伟达提供先进封装,月产能为5000片晶圆。台积电依然会是英伟达主要的封装合作伙伴,占据着最多的份额,不过随着英特尔的加入,使得英伟达所需要的封装总产能大幅度提升了近10%。台积电也没有减慢封装产能的扩张步伐,今年第一季度大概能增至月产能接近5万片晶圆,比去年12月增长25%。

AI芯片供应短缺主要源自先进封装产能不足,另外HBM3供应紧张也是原因之一,另外部分云端服务商过度下单也增加了供应链的压力。当然,一些服务器供应商则从这些订单中受惠,并加速扩大产能,以便云端服务商能快速部署设备。


科技巨头纷纷自研芯片

华尔街投资银行 Bernstein Research 的分析师 Stacy Rasgon 表示,使用 ChatGPT 进行的每次查询的成本约为 0.04 美元。如果 ChatGPT 查询规模扩大到 Google 搜索量的十分之一,初始部署将需要价值约 481 亿美元的 GPU 进行计算,每年需要价值约 160 亿美元的芯片来维持运营,以及类似的相关芯片执行任务的数量。



因此,无论是为了降低成本、减少对NVIDIA的过度依赖,甚至是进一步增强议价能力,全球科技巨头都启动了开发自己的AI加速器的计划。

据科技媒体 The Information援引行业消息人士报道,微软、OpenAI、特斯拉、谷歌、亚马逊和 Meta 等六大全球科技巨头都在投资开发自己的 AI 加速器芯片。这些公司预计将与 NVIDIA 的旗舰 H100 AI 加速器芯片展开竞争。


微软

2023年11月,微软在年度 IT 专业人士和开发者大会 Ignite 上推出两款自研芯片 —— 云端 AI 芯片微软 Azure Maia 100、服务器 CPU 微软 Azure Cobalt 100。

Maia 100 是微软为微软云中大语言模型训练和推理而设计的第一款AI芯片,采用台积电 5nm 工艺,拥有 1050 亿颗晶体管,针对 AI 和生成式 AI 进行了优化,支持微软首次实现的低于 8 位数据类型(MX 数据类型)。微软已经在用搜索引擎 Bing 和 Office AI 产品测试该芯片。

Cobalt 100 是微软为微软云定制开发的第一款 CPU,也是微软打造的第一款完整的液冷服务器 CPU,采用 Arm Neoverse CSS 设计、128 核。

微软还定制设计了一个 AI 端到端机架,并搭配了一个“助手”液冷器,原理类似于汽车散热器。

两款芯片明年年初开始在微软数据中心推出,最初为微软的 Copilot 或 Azure OpenAI Service 等服务提供动力。微软已经在设计第二代版本的 Azure Maia AI 芯片和 Cobalt CPU 系列。

这些芯片代表了微软交付基础设施系统的最后一块拼图 —— 从芯片、软件和服务器到机架和冷却系统的一切,微软这些系统都是由上到下设计的,可以根据内部和客户的工作负载进行优化。


OpenAI

据悉,OpenAI也正在探索自研AI芯片,同时开始评估潜在收购目标。在其招聘网站上,最近也出现了AI硬件共同开发、评估相关岗位。OpenAI拟筹建的合资企业与总部位于阿布扎比的 G42 和软银集团等潜在投资者进行了讨论,旨在解决当前和预期的人工智能相关芯片供应短缺问题。

毫无疑问,该项目的财务和运营规模显然是巨大的。Altman仅与G42的讨论就集中在筹集80亿至100亿美元之间。该项目的全部范围和合作伙伴名单仍处于早期阶段,这表明建立此类设施网络需要大量投资和时间。

尽管还不清楚Altman是否计划购买一家成熟的代工厂来生产AI芯片,或建立一个全新的晶圆厂网络来满足OpenAI及其潜在合作伙伴的需求,但此前有人分析Altman可能会考虑把参与投资的芯片公司纳入麾下,包括CerebrasRain NeuromorphicsAtomic SemiCerebras、Rain Neuromorphics、tomic Semi。


特斯拉

电动汽车制造商特斯拉也积极参与AI加速器芯片的开发。特斯拉主要围绕自动驾驶需求,迄今为止推出了两款AI芯片:全自动驾驶(FSD)芯片和Dojo D1芯片。

FSD芯片用于特斯拉汽车的自动驾驶系统,而Dojo D1芯片则用于特斯拉的超级计算机。它充当通用 CPU,构建 AI 训练芯片来为 Dojo 系统提供动力。


谷歌

Google 也早在 2013 年就秘密研发专注 AI 机器学习算法芯片,并用于云计算数据中心,取代英伟达 GPU。

这款TPU自研芯片2016年公开,为深度学习模型执行大规模矩阵运算,如自然语言处理、计算机视觉和推荐系统模型。Google 其实在 2020 年的资料中心便建构 AI 芯片 TPU v4,直到 2023 年 4 月才首次公开细节。

2023年12月6日,谷歌官宣了全新的多模态大模型Gemini,包含了三个版本,根据谷歌的基准测试结果,其中的Gemini Ultra版本在许多测试中都表现出了“最先进的性能”,甚至在大部分测试中完全击败了OpenAI的GPT-4。

而在Gemini出尽了风头的同时,谷歌还丢出了另一个重磅炸弹——全新的自研芯片TPU v5p,它也是迄今为止功能最强大的TPU。

根据官方提供的数据,每个TPU v5p pod在三维环形拓扑结构中,通过最高带宽的芯片间互联(ICI),以4800 Gbps/chip的速度将8960个芯片组合在一起,与TPU v4相比,TPU v5p的FLOPS和高带宽内存(HBM)分别提高了2倍和3倍。



除此之外,TPU v5p训练大型 LLM 模型的速度比上一代TPU v4快2.8倍,利用第二代SparseCores,TPU v5p训练嵌入密集模型的速度比TPU v4快1.9倍。TPU v5p在每个pod的总可用FLOPs方面的可扩展性也比TPU v4高出4倍,且每秒浮点运算次数(FLOPS)增加了一倍,单个pod中的芯片数量也增加了一倍,大大提高了训练速度的相对性能。


亚马逊

亚马逊旗下的云计算服务提供商亚马逊网络服务(AWS),自2013年推出Nitro1芯片以来,它一直是开发自有芯片的先驱。AWS此后开发了自研芯片的三个产品线,包括网络芯片、服务器芯片、AI机器学习芯片。

其中,AWS自研AI芯片阵容包括推理芯片Inferentia和训练芯片Trainium。

此外,AWS于2023年初推出了专为人工智能设计的Inferentia 2(Inf2)。它将计算性能提高了三倍,同时将加速器总内存增加了四分之一。

它通过芯片之间直接超高速连接支持分布式推理,可处理多达1750亿个参数,使其成为当今AI芯片市场上最强大的内部制造商。


Meta

Meta 在 2022 年之前继续使用专为加速 AI 算法而定制的 CPU 和定制芯片组来执行其 AI 任务。然而,由于 CPU 在执行 AI 任务方面与 GPU 相比效率较低,Meta 放弃了 2022 年大规模推出定制设计芯片的计划,而是选择购买价值数十亿美元的 NVIDIA GPU。

尽管如此,在其他主要厂商开发内部人工智能加速器芯片的浪潮中,Meta 也涉足内部芯片开发。

2023年5月19日,Meta进一步公布了其人工智能训练和推理芯片项目。该芯片功耗仅为25瓦,是NVIDIA同类产品功耗的1/20。它采用RISC-V开源架构。据市场报道,该芯片也将采用台积电的7纳米制造工艺生产。

美国去年10月扩大禁止向中国出售先进人工智能芯片,英伟达虽然迅速为中国市场量身订造新芯片,以符合美国出口规定。但近日有消息指出,阿里巴巴、腾讯等中国云计算大客户,并不热衷购买功能降低的减规版H20芯片,转成国内采购。策略转变显示透过部分先进半导体订单转给中国公司,将更依赖中国本土厂商芯片。

TrendForce表示,中国云端业者约八成高阶AI芯片购自英伟达,五年内可能降至50%——60%。若美国继续加强芯片管制,可能对英伟达中国地区销售造成额外压力。



Baidu
map