欢迎访问
台积电想要涨价,大客户同意了!给AI降本越来越难
2024-06-14 来源:贤集网
397

关键词: 台积电 晶圆 芯片 人工智能

近日,全球晶圆代工巨头台积电暗示将提高其代工价格,以应对成本上涨问题。

据悉,台积电新任董事长魏哲家曾向英伟达CEO黄仁勋表达产品价格过高的担忧,并表示考虑展示台积电的价值,此言论被外界解读为台积电将对英伟达等大客户进行涨价的信号。英伟达作为台积电的重要客户,其AI芯片几乎全部由台积电代工,包括最新的Blackwell GPU。

黄仁勋在Computex 2024上表示,台积电的晶圆和服务价格太低,没有充分体现其对科技行业的贡献,他认为台积电应该提高价格,以匹配其提供的价值。



台积电目前正面临电价上涨和通货膨胀带来的成本压力,魏哲家表示,希望客户能与台积电分担部分成本,并已开始与客户讨论。尽管台积电试图淡化涨价问题,强调定价以战略为导向,但黄仁勋的表态似乎为涨价铺平了道路。

分析师预计,如果台积电真的提高价格,英伟达接受新价格,其他AI客户也可能很快面临更高的芯片成本。台积电此前已警告,在美国生产的芯片将面临更高的制造成本,这些成本最终将转嫁给终端客户。


英伟达AI芯片售价超3万美元

英伟达在GTC 2024大会上最新推出了新一代GPU Blackwell平台,首款芯片命名为GB200,今年上市。GB200包含了两个B200 Blackwell GPU和一个基于Arm的Grace CPU。

据英伟达CEO黄仁勋透露,该芯片的售价将在3万美元(约合人民币22万元)至4万美元之间。

他估计,英伟达在研发成本上花费了大约100亿美元(约合人民币720亿元)。这个定价范围与前代的H100(即Hopper)相似,但性能上却带来巨大提升。

据介绍,GB200采用台积电的4纳米(4NP)工艺制程,将芯片整合到一起,使用10 TB/sec NVLink 5.0连接。GB200共有2080亿个晶体管,而上一代H100采用晶体管仅有800亿。



给算力降成本才是应用的核心步骤

当算力成本越高,应用普及的概率就越低。而大模型的竞争实际上是一场生态持久战,一个城市不需要十个航站楼,但一个航站楼需要源源不断的乘客。为了吸引“乘客”,“飞机”需要不断地更新迭代,由此“机油”的价值量也将发生变化。

所以,在武超则看来,2024年算力最重要的趋势就是降低成本。甚至于“哪些企业或产业链环节能帮助算力降低成本,就是有价值的企业。”

大模型的轻量化在2024年是一个比较重要的趋势。

AIPC以及各种AI穿戴设备的核心目标是让用户以更低的成本使用大模型。

现在算力成本还是太高,如果是在云端使用算力,就像去沃尔玛或者大型超市购物一样,当我们需要购买一周的商品,会去大型超市采购。但如果我们的需求是购买一瓶水或者纸巾,在路边的小卖店就可以。

所以,2024年最核心的趋势就是从终端走向云端,以及用更便宜的成本,将算力从云端部署到不同的终端硬件上,例如穿戴设备的AI功能,可以直接调用终端硬件实现,对云端算力的依赖就不会过大。算力降成本中非常重要的核心技术就是大模型在终端或者算力上的部署和升级。

总体来讲,这是2024年的主要趋势。

原有的一些终端厂商都在进行这项工作,但投资机会不仅限于此,硬件也会带来一些机会,例如过去相对低迷的消费电子及产业链机会。


AI芯片加快迭代速度

虽然摩尔定律已经开始有些吃力,但是AI芯片“狂欢者们”的创新步伐以及芯片推出的速度却越来越快。英伟达Blackwell还在势头之上,然而在不到3个月后的Computex大会上,英伟达就又祭出了下一代AI平台——Rubin。英伟达首席执行官黄仁勋表示,以后每年都会发布新的AI芯片。一年一代芯片,再次刷新了AI芯片的更迭速度。



英伟达的每一代GPU都会以科学家名字来命名。Rubin也是一位美国女天文学家Vera Rubin的名字命名。Rubin将配备新的GPU、名为Vera的新CPU和先进的X1600 IB网络芯片,将于2026年上市。

目前,Blackwell和Rubin都处于全面开发阶段,其一年前在2023年在Computex上发布的GH200 Grace Hopper“超级芯片”才刚全面投入生产。Blackwell将于今年晚些时候上市,Blackwell Ultra将于2025年上市,Rubin Ultra将于2027年上市。

紧跟英伟达,AMD也公布了“按年节奏”的AMD Instinct加速器路线图,每年推出一代AI加速器。Lisa Su在会上表示:“人工智能是我们的首要任务,我们正处于这个行业令人难以置信的激动人心的时代的开始。”

继去年推出了MI300X,AMD的下一代MI325X加速器将于今年第四季度上市,Instinct MI325X AI加速器可以看作是MI300X系列的强化版,Lisa Su称其速度更快,内存更大。随后,MI350系列将于2025年首次亮相,采用新一代AMD CDNA 4架构,预计与采用AMD CDNA 3的AMD Instinct MI300系列相比,AI推理性能将提高35倍。MI350对标的是英伟达的Blackwell GPU,按照AMD的数据,MI350系列预计将比英伟达B200产品多提供50%的内存和20%的计算TFLOP。基于AMD CDNA“Next”架构的AMD Instinct MI400系列预计将于2026年上市。

英特尔虽然策略相对保守,但是却正在通过价格来取胜,英特尔推出了Gaudi人工智能加速器的积极定价策略。英特尔表示,一套包含八个英特尔Gaudi 2加速器和一个通用基板的标准数据中心AI套件将以65,000美元的价格提供给系统提供商,这大约是同类竞争平台价格的三分之一。英特尔表示,一套包含八个英特尔Gaudi 3加速器的套件将以125,000美元的价格出售,这大约是同类竞争平台价格的三分之二。AMD和Nvidia虽然不公开讨论其芯片的定价,但根据定制服务器供应商Thinkmate的说法,配备八个Nvidia H100 AI芯片的同类HGX服务器系统的成本可能超过30万美元。

一路高歌猛进的芯片巨头们,新产品发布速度和定价凸显了AI芯片市场的竞争激烈程度,也让众多AI初创芯片玩家望其项背。可以预见,三大芯片巨头将分食大部分的AI市场,大量的AI初创公司分得一点点羹汤。



Baidu
map