今年以来,人工智能(AI)成为香饽饽,世界各大IT巨头竞相采购服务器并训练大模型。
结合业界人士以及各大AI头部企业最新消息显示,尽管科技公司都投入大量资源发展最新AI技术,但是多家头部企业表示这一业务目前难以产生足够的利润。
成本巨大、获利较难
据微软、AMD等龙头企业表示,AI业务难以获利的最重要原因,还在于AI研发相关工具成本过于高昂,比如生成式AI大模型的耗费就是典型的烧钱。
据华尔街日报爆料,微软的AI编程工具GitHub Copilot用户量高达150万,但是平均每个月在每个用户身上都要倒贴20美元,最高能达80美元。不止微软“表面光鲜”,谷歌、亚马逊、Adobe、Zoom等巨头也面临同样的窘境。据SemiAnalysis的专家Dylan Patel统计,OpenAI光是运行ChatGPT,每日投入的成本就可能高达70万美元。
据悉,生成式人工智能工具的商业模式未经充分验证,其运行成本高昂,需要配备昂贵芯片的大型服务器,且耗电巨大。并且当下AI相关应用的落地场景、应用价值也仍待挖掘。目前,微软、谷歌、Adobe等其它科技公司正在尝试各种方法来推销付费人工智能服务。
谷歌的人工智能助手服务每月订阅费6美元,此后也计划额外收取每月30元的费用;网络视频公司Zoom也尝试内部开发更简便的AI来降低成本;Adobe则采取每月限量使用的机制,来确保其人工智能服务Firefly不会陷入亏损,用户每月有固定的分配额度,一旦超过,其运行速度会大幅降低;OpenAI的ChatGPT 4.0每月订阅费用为20美元,但是旧版本可免费使用。
上文所述的微软和GitHub还没有回应该服务是否盈利,但该企业计划后续升级会提高使用价格,除了Microsoft 365企业基本月费13美元之外,人工智能强化版本每月会额外收取30美元。
亚马逊云部门主管Adam Selipsky表示,他接触的许多客户都对运行一些大模型的成本感到不满。微软企业战略主管Chris Young认为,企业和消费者需要时间来了解他们希望如何使用人工智能,以及愿意为此支付多少费用。他表示,“很明显,我们现在必须把对AI的兴趣和兴奋转化为真正的行动。”
生成式人工智能公司Writer的首席执行官May Habib表示,AI公司估值的上升反映了人们对其前景的看好,但是公司高管们很快就会更加关注成本问题。她认为,2024年将是人工智能投资热度降温的一年。
英伟达赢麻了
当ChatGPT横空出世,英伟达“命运的齿轮”就已经悄悄转动。
黄仁勋道,AI的iphone时刻已经到来。如今,“一个新的计算时代已经开始,全球公司正在从通用型向加速计算和生成型人工智能过渡”,英伟达也在AI芯片上收获了比预想更好的利润。
英伟达公布的2024第二财报季业绩显示,截至2023年7月30日,公司第二季度收入135.07亿美元,同比增长101%,比上一季度增长88%,高于分析师预期110.4亿美元;归属净利润实现61.88亿美元,同比增长8.43倍;摊薄每股收益为2.48美元,同比上年同期增长854%,环比上一季度增长202%。
各项指标超过预期,这或许也是英伟达史上最佳的业绩报告。AI热潮推动的大模型训练的GPU市场需求还处在高位,英伟达作为市面上唯一的高端GPU的供应商,H100系列芯片在市场中一卡难求。因此,英伟达在财报中不仅披露了新产品进展,也在加快产能建设。
自英伟达发布大模型专用GPU并量产供货后,由于市场需求远大于产能供应,市面上的英伟达H100芯片被疯狂加价,有时候甚至一卡难求。
据市场消息称,英伟达AI芯片H100在2023年8月的市场总需求可能在43.2万张左右,而据据eBay网站显示,目前一张专门用于训练AI大模型的H100芯片在Ebay上的价格甚至炒到了4.5万美元,折合人民币超过了30万元。
SK海力士低调吸金
去年9月推出的H100,是英伟达产品矩阵中最先进的GPU。
相较于前任A100,它的价格翻了1.5-2倍左右,但性能却有了质的飞跃:推理速度提升3.5倍,在训练速度提升2.3倍;如果用伺服器丛集运算的方式,训练速度更是能提高到9倍。在LLM训练中,它能让原本一个星期的工作量,缩短为20个小时。
一块英伟达H100,主要由三个部分构成:中心的H100裸片两侧各有三个HBM堆栈,最外层则是台积电的2.5D CoWoS封装框。
三个部件里,核心的逻辑芯片供应是最简单的,它主要产自台积电台南18号工厂,使用4N工艺节点(实际是5nm+)。由于5nm+下游的PC、智能手机和非AI相关数据中心芯片市场疲软,目前台积电5nm+产能利用率不到70%。因此逻辑芯片供应没有问题。
英伟达最主要的供应缺口,来自逻辑芯片两侧的6块HBM(High Bandwidth Memory,高带宽内存),和把逻辑芯片、HBM连接起来的CoWoS封装(Chip on wafer on Substrate,芯片、晶圆、基板封装)。
HBM是一种基于3D堆叠工艺的DRAM内存芯片。其技术原理,就是将多个DDR芯片,垂直堆叠在一起,通过硅通孔(TSV)和微凸块(μBmps)技术,把芯片相互连接,从而突破了现有的性能限制,大大提高了存储容量,实现更高带宽、更高位宽、更低功耗、更小尺寸的DDR组合阵列。
内存芯片对GPU性能至关重要,尤其是训练AI所用的高性能GPU。推理和训练工作负载是内存密集型任务。随着AI模型中参数数量的指数级增长,仅权重一项就将模型大小推高到了TB级。因此,从内存中存储和检索训练和推理数据的能力决定了GPU性能的上限。AI大模型和应用越多,越有利于HBM制造商。
从整体HBM市场来看,两大韩国存储巨头SK海力士及三星占绝对垄断地位,二者合计市占率在90%左右。
英伟达H100上面使用的HBM3由SK海力士独家供应,这是目前最先进的HBM产品。
HBM3工艺复杂、成本高昂、产能有限,2022年,在整个HBM市场中,HBM3仅占约8%的市场份额。作为全球唯一有能力量产HBM3的公司,SK海力士牢牢卡住了英伟达H100的脖子;而前代GPU A100/A800以及AMD的MI200使用的则是落后一代的HBM2E技术。
不过,当前存储芯片业界正处于HBM2E向HBM3换代的过程中。据Trendforce数据,预计到2024年,HBM3市占率将超过60%,三星、美光等存储芯片厂都在积极布局,都对SK海力士的市场份额虎视眈眈。
台积电:根本忙不过来
先进封装则是一项与HBM内存相辅相成的技术——要用HBM堆栈,必须用先进封装把内存和GPU连接起来。
H100上使用的台积电CoWoS先进封装,是一项2.5D封装技术。
主流的2D封装方案,是在基板(Substrate)的表面水平安装所有芯片和无源器件的集成方式,类似于平面的拼图。
而2.5D先进封装,则可以类比为横向排列的积木。多层DDR芯片堆叠的HBM堆栈,必须依赖先进封装才能实现。
台积电的CoWoS先进封装方案,由CoW和oS组合而来:先将芯片通过Chip on Wafer(CoW)的封装制程连接至硅晶圆,再把CoW芯片与基板连接(on Substrate),整合成CoWoS。
CoWoS技术大大提高了互联密度以及数据传输带宽,同时缩小了封装尺寸,但工艺也非常复杂,因此主要用于高端市场。
据媒体报道,目前台积电CoWoS封装月产8000片,今年底有望提升至11000片,2024年底有望实现14500至16600片左右的月产能,也就是说,想要提升一倍的产量,几乎需要一年半的时间。
AI企业获利还要再等五到十年?
根据分析平台Similarweb的数据,ChatGPT的每月在线访问量在经历了数月的增长后,分别在6月和7月下降了10%。图片生成式AI平台Midjourney的月访问量在截至7月的3个月内连续下降。
指数风投(Index Ventures)合伙人Mark Goldberg表示,商业人工智能应用的出现曾经被寄予“光速实现”的乐观预期,但现在“出现了一种浅层次的幻灭感”:ChatGPT的初始用户增长激增,导致投资者高估了消费者将使用由生成式人工智能驱动的工具的速度。
投资者在这些产品尚未拥有客户或收入之前便急于支持正在建设这些产品的初创公司,这引发了对市场可能过热的担忧。
风险投资者表示,他们仍然不确定围绕这项技术构建新产品的初创公司的获胜商业模式是什么样的——许多初创企业尚未证明他们能否留住用户,并开发出现有公司难以轻易模仿的产品。
由于盈利模式不确定,一些公司已经对于向生成式人工智能的投资提出了怀疑。
据小i集团董事局主席&首席执行官袁辉的说法,ChatGPT意味着整个产业的变革升级,很多行业将会被重塑,是一个颠覆性的创新。他说,“没有一次工业革命可以与人工智能相提并论。过去工业革命还是在某个领域或某一地区以某个国家为主导,但现在AI已经没有边界了。”
“ChatGPT对人类将有两个重大影响。”袁辉称,一是接下来五到十年是AI的技术红利,是六十年积累后巨大的红利变现期;二是AI发展正在加速,早期曾预言这需要三十年五十年甚至更长时间。
ChatGPT已经可以快速进入到各行各业并产生价值,但袁辉提醒道,ChatGPT未来面临着三个关键的挑战。一是需要可控,就是从意识形态、伦理道德上来讲必须可控,否则将极度不安全;二是如与行业结合,必须得可定制;第三是可交付。“它一定要实现可控可交付可定制才能在行业中大规模地变现。”他说。