欢迎访问
AI不仅为社会带来便利,还为这些半导体芯片带来增量机遇
2024-03-21 来源:贤集网
2740

关键词: 人工智能 芯片 半导体

2023年,生成式人工智能在全球范围内掀起热潮,大模型的竞争越发激烈。在2024年,人工智能将进一步带动芯片算力、存力(存储性能)和能效的提升,推动半导体在架构和先进封装等环节的创新,并带来新的市场增量。


芯片架构迈向多元化

ChatGPT的出现拓宽了AI芯片的市场空间,AI大模型训练需求激增,因此高算力芯片成为半导体产业链本轮复苏的主要驱动力。在AI浪潮中,英伟达2023年的数据中心业务凭借着A100、H100等GPU(图形处理器)产品实现了217%的同比增长,截止2024年3月6日,其市值突破2.1亿美元。

作为当前进行AI运算的主流处理器,GPU自身具备强大的并行计算能力,但在近几年的市场验证中,也暴露出成本较高、交付周期较长以及功耗偏高等问题。一方面,英伟达正在努力缩短交付周期;另一方面,各类企业正在创新芯片架构,以期对AI处理器的功耗和成本进行优化。



因此,ASIC这类适用于特定场景的芯片开始被谷歌、微软等云服务厂商关注。

谷歌自2016年开始研发专用于机器学习的TPU(张量处理器),并将其作为AlphaGo的算力底座。TPU采用低精度计算,在保证深度学习效果的同时降低功耗,并提升运算效率。谷歌于今年1月发布的TPU v5p版本在大模型训练中的效率相较于v4提升了2.8倍。据悉,该系列芯片也将应用于谷歌Gemini AI大模型的训练。

2月19日,由前谷歌TPU核心研发团队的工程师组建的初创公司Groq也开放了自家产品LPU(语言处理器)的体验入口。在架构方面,Groq的LPU使用了TSP(张量流处理器)来加速人工智能、机器学习和高性能计算中的复杂工作负载。Groq相关发言人称,该处理器的推理能力是英伟达H100的10倍。

此外,在AI从云端向终端渗透的过程中,诸多厂商认为NPU(神经网络处理单元)是更加适合AI运算的技术路线。高通的AI PC芯片X Elite和英特尔酷睿Ultra处理器中均集成了NPU以提升电脑端的AI性能。

架构的多点开花既体现出各大企业对于通用芯片和专用芯片的取舍,也意味着更多芯片品类的供应商及其上下游企业有机会分享AI时代的红利。

“在过去几年,GPU由于其完善的开发生态仍然是AI计算的主要选择。然而,随着模型参数不断增大,芯片对于计算能效的要求相应提升,专用处理器在某些特定AI应用场景中的优势将会十分明显。综合考虑应用场景、成本等多方面因素,未来AI计算的硬件芯片选择将是多技术路线并存的。”北京大学集成电路学院研究员贾天宇告诉《中国电子报》记者。


算力自主可控或成为趋势

北京时间3月19日凌晨,英伟达联合创始人兼CEO黄仁勋发表了主题演讲《见证AI的变革时刻》,拉开了2024年英伟达GTC大会序幕。这次大会亮点多多,最瞩目的是英伟达拿出了”真家伙“——被称为“全球最强”的AI芯片要来了。

这款芯片叫Blackwell,它架构的GPU拥有 2080 亿个晶体管,无论是性能还是功耗均全面超越上一代。

算力提升成本下降,这款AI芯片还没上市,就被许多大企业“预订”了。黄仁勋透露,许多企业预计将采用Blackwell,如亚马逊、谷歌、OpenAI等等。



英伟达更大算力GPU推出的背后,是在人工智能技术的进步下,算力需求持续暴增,市场需要性能更强大的半导体芯片解决方案。

根据OpenAI的测算数据,2012年以来最大的AI训练运行所使用的算力呈指数增长,每3-4个月增长一倍。未来伴随国内外巨头先后加码大模型领域投入,以及用户规模的不断攀升,AI算力需求有望持续高景气。

A股的投资者可以关注哪些产业机遇?算力的自主可控或成为趋势。

国泰君安认为,英伟达最新芯片性能提升显著,全球AI算力维持高景气,同时,考虑到美国对AI芯片的制裁和算力供需趋紧,国产算力也有望超预期发展。

天风证券认为,2024年大模型正在各领域快速迭代,不断取得突破。海外Sora、Claude3等大模型的发布,让市场看到人工智能的迭代之快,以及广阔的应用前景而算力作为基石,有望率先在需求侧反映出行业景气度的提升。同时,考虑地缘政治等影响,算力的自主可控或成为趋势。


存储芯片成香饽饽

随着AI在近几年来的加速发展,算力需求持续攀升。在ChatGPT、Sora等生成式大模型的推动下,对AI服务器的需求也进一步刺激。值得注意的是,SK海力士副社长Kim Ki-ate表示,该公司今年的HBM已经售罄,并已开始为2025年做准备。早些时候,美光科技CEO Sanjay Mehrotra也透露,美光2024年的HBM产能同样预计已经全部售罄。

其实在过去,HBM的位元需求在整体DRAM市场中的占比不足1%。这主要是由于其高昂的成本以及服务器市场中配备相关AI运算卡的比例较低所限制的。然而,随着今年年初AI服务器需求的激增,HBM的市场地位由此发生了显著转变,因为它已经成为AI服务器的标准配置。

根据TrendForce集邦咨询披露的数据,2022年AI服务器出货量86台,预计2026年AI服务出货量将超过200万台,年复合增速29%。AI服务器出货量增长催化HBM芯片需求爆发,预期到2025年,全球HBM市场规模将达到约150亿美元,增速超过50%。

在存储市场中,相对于GDDR来说,HBM芯片并非是一种主流的存储芯片选择,所以过去布局HBM芯片的企业少之又少。一直以来,HBM芯片市场主要由外资企业SK海力士、三星和美光这三家企业主导,而国内还尚未有量产HBM的企业出现。




芯片巨头加速布局

英伟达的成功也引起了其他存储芯片巨头的惶恐。美光、西部数据和英特尔三家存储芯片公司意识到,如果不采取行动,将在未来被英伟达彻底赶超。于是,它们开始了自己的"Allin"之路。

美光科技是第一个采取行动的公司。作为全球第三大存储芯片制造商,美光深知存储是未来人工智能和大数据时代的关键。因此,美光将目光转向了3DXPoint等新兴存储技术的研发。3DXPoint被誉为"新一代存储革命",具有高速度、高密度、持久性、低功耗等优势。2022年,美光成为首家量产3DXPoint的存储芯片厂商,为其在人工智能和大数据市场提供了强有力的武器。

与此同时,西部数据也在加大3DNAND闪存的投资力度。作为存储芯片行业的老牌公司,西部数据长期以来一直专注于硬盘驱动器(HDD)的生产。但随着新技术的兴起,公司意识到未来必须转型。,西部数据推出了第六代3DNAND闪存,性能和存储密度再次提升,为人工智能训练数据和大数据存储提供了解决方案。

至于英特尔,则是行家里手。英特尔不仅制造CPU处理器,也是存储芯片的重要供应商。为了保持竞争力,英特尔在3DXPoint和3DNAND等新存储技术上也进行了大规模投资。2024年,英特尔推出了"SSD革命"计划,将3DXPoint和3DNAND完美融合,推动固态存储产品的飞跃发展。

三家存储芯片公司的"Allin"投资虽然各有侧重,但目标是一致的在与英伟达的竞争中分一杯羹。随着人工智能和大数据应用的不断扩展,对于高速、大容量、低功耗的存储芯片需求将持续增长。而英伟达凭借其在GPU和AI加速芯片领域的优势,确实在这一领域占据了先机。但存储芯片同样是人工智能和大数据应用不可或缺的一环,只有存算一体,AI计算和存储高度融合,才能最大限度释放计算能力。

总的来说,这场"存储芯片战争"是科技行业未来发展的一个缩影。它体现了人工智能时代带来的新机遇和新挑战,也折射出传统存储芯片巨头如何在变革中求生存。

因此,存储芯片公司与英伟达之间的竞争将在未来几年内持续激烈。双方都在为争夺人工智能和大数据市场做着长期布局和发展规划。这种持续较量将推动整个科技行业在新存储技术、新算力架构、软硬件一体化等方面的创新,也将加速人工智能和大数据应用在各行业的落地进程。



Baidu
map