欢迎访问
ChatGPT大火不仅将全球眼光吸往AI,更做了回半导体硬件的“卖水人”
2023-03-02 来源:网络整理
722

关键词: 人工智能 ChatGPT AI

据外媒报道,近期全球科技领域最受瞩目的,莫过于OpenAI训练的人工智能聊天机器人ChatGPT。这一人工智能驱动的模型,在去年11月30日发布之后仅5天的时间里,就收获了100万用户;第一个月的用户就超过5700万;在1月份时,用户迈过1亿大关;有机构预计在今年四季度有望超过10亿。


用户激增的ChatGPT,在互联网领域也有着广阔的应用前景。有“美版头条”之称的数字媒体公司BuzzFeed,在1月份就已宣布计划用于协助内容创作,股价随后也连续大涨;OpenAI的合作伙伴及投资方微软,在2月7日推出的新的必应搜索引擎,引入了比ChatGPT更强大的OpenAI下一代大语言模型。

而随着微软将相关的技术用于搜索引擎,早已意识到可能威胁到他们核心业务的谷歌,也加快了相关技术的应用步伐。在微软推出新必应搜索引擎和Edge浏览器之后一天,谷歌的竞品Bard也在巴黎迎来了首秀,虽然被外界发现有问题给出了错误的答案,导致母公司Alphabet的市值在随后两个交易日蒸发超过2000亿美元,但谷歌还是在推进Bard的研发及应用,最新的报道显示,CEO皮查伊已请求员工参与测试。



除了谷歌和微软,国内的相关厂商也在推进相关的人工智能聊天机器人的研发及应用。奇虎360的周鸿祎在与张朝阳的对话中,表示他觉得ChatGPT可能代表着在人工智能的发展历史上可能是一场真正革命的开始,360不会放弃对这一技术的研究和跟踪。

无论ChatGPT更广泛的应用,还是多家巨头推出类似的人工智能聊天机器人,处理数据和维持相关服务的运行,都需要大量的服务器,这也就给半导体的多个领域带来了新的发展契机,尤其是GPU和DRAM这两大领域。


AI 带动算力新需求

根据太平洋证券介绍,人工智能三大要素主要包括数据,算法,以及算力。

由于机器学习中的监督学习和半监督学习都要用标注好的数据进行训练,数据标注是人工智能产业的上游产业;算法方面,当前最具代表性的深度学习算法模型有深度神经网络、循环神经网络、卷积神经网络。其中深度神经网络和循环神经网络是深度学习的基础。

算力是算法和数据的基础设施,算力大小决定了数据处理能力的强弱,芯片则是决定算力的硬件基础。

其中,OpenAI带动算力新需求。OpenAI的研发主要依托AIGC(利用人工智能技术来生成内容)技术。根据OpenAI近日发布的数据,自2012年以来人工智能训练任务中使用的算力呈指数级增长,其增长速度为每3.5个月翻一倍。截止目前人们对算力的需求已增长了超过30万倍,摩尔定律已然失效。

近年来,我国算力规模保持持续增长态势,经信通院测算2021年我国计算设备算力总规模达到202EFlops,增速约50%,高于全球增速。

《新型数据中心发展三年行动计划(2021-2023年)》强调到2023年底,全国数据中心机架规模年均增速保持在20%左右,平均利用率力争提升到60%以上,总算力超过200EFLOPS,高性能算力占比达到10%。国家枢纽节点算力规模占比超过70%。此外,计划还提出新型数据中心应具备高技术、高算力、高能效、高安全等特征。太平洋证券指出,“四高”已经成为未来数据中心的必备条件,而相应的服务器市场或将迎来较快增长。




GPU有望迎来新一轮需求高峰

在ChatGPT这一人工智能聊天机器人大火之后,就有外媒在报道中提到,英伟达被分析师和业内人士认为会是一大受益者。外媒在报道中称,为了创建和维持ChatGPT所需的人工智能分析数据的庞大数据库,开发者使用了10000个英伟达的GPU进行相关的训练。而为了满足当前服务器的需求,ChatGPT的开发商OpenAI已使用了约2.5万个英伟达的GPU。

而随着ChatGPT应用范围的扩大,他们对英伟达GPU的需求也就还会增加,其他厂商研发相关的技术及应用,还将进一步拉升对GPU的需求。已有外媒预计,如果将当前的技术应用到每一次的谷歌搜索中,需要512,820台A100 HGX服务器,将需要超过410万个A100 GPU。

对英伟达来说,如果相关的应用拉升了对GPU的需求,就将推升他们的业绩。在2023财年第一财季,也就是在截至去年5月1日的那一个财季实现82.88亿美元的营收之后,他们的营收已连续两个季度环比下滑,在消费电子产品需求不乐观的情况下,ChatGPT等人工智能聊天机器人相关的需求,有望为他们带来新的增长动力。

不过,也有外媒认为,ChatGPT等人工智能聊天机器人进行训练和提供相关的服务对GPU需求的增加,全球可能再次面临GPU短缺的挑战,出现短缺的时间可能还会早于预期。


高带宽存储器需求已在增加

除了高性能GPU,ChatGPT等人工智能聊天机器人,也拉升了高带宽存储器(HBM)的需求。

韩国媒体在本周早些时候的报道中就表示,从今年年初开始,三星电子和SK海力士的高带宽存储器订单就大幅增加,相关厂商已在要求SK海力士供货。

与其他DRAM相比,HBM通过垂直连接多个DRAM,显著提高了数据处理速度,与CPU和GPU协同工作,可以大幅提高服务器的学习和计算性能。但性能更出色的高带宽存储器,也有更高的价格,至少是DRAM的3倍。而在需求增加的情况下,SK海力士HBM3的价格,已增至高性能DRAM的5倍。

同英伟达和台积电一样,三星电子和SK海力士这两大存储芯片制造商,也面临消费电子产品需求下滑的挑战,SK海力士的营收在去年三季度和四季度是同比环比双双下滑,四季度更是出现了3.5万亿韩元的净亏损,全年的净利润也降至2.4万亿韩元,同比下滑75%。三星电子存储业务的营收,在去年三季度和四季度也是同比环比双双下滑,所在部门的营业利润也是如此,也导致全年的营收和营业利润下滑。




仍在增长的AI巨浪

从主要的工作流程来看,ChatGPT的分为训练和推理,二者对于算力有着不同的需求。

相比于回答用户问题的推理阶段,ChatGPT的日常训练对于GPU算力的要求更高。在训练阶段,ChatGPT需要反复地进行前向传播和反向传播操作,用来优化模型参数。

前向传播是指从输入数据开始,按照神经网络的结构逐层计算,直到得到输出结果的过程。具体到ChatGPT的训练中,前向传播是就根据当前的网络参数和输入文本,计算出每个单词的概率分布。

反向传播是指通过计算损失函数关于每个参数的梯度,从输出结果开始向网络输入逐层传播,更新神经网络的权重和偏置值,提高网络的准确率。

在ChatGPT的训练过程中,前向传播和反向传播一般会以百万次甚至上亿次多次迭代执行,因此只有大量的、高算力的GPU集中运算,才能达到要求。公开数据显示,GPT-3单次训练成本就高达460万美元。

根据中信证券研究部数据,此前GPT-3在训练中使用了微软专门建设的Al计算系统,由1万枚英伟达GPU组成高性能网络集群。

目前英伟达主流的AI芯片中,A100芯片单颗市场售价约为8万元。而A100的升级版,最新的H100芯片单颗售价约为人民币24万元。这意味着,仅仅是采购芯片一项,ChatGPT就需要向英伟达支付10亿元以上。

据Investing.com报道,GPT-3时代1万枚的英伟达GPU,已经随着ChatGPT升级到GPT-3.5,增至2.5 万枚,且增长仍在继续。随着谷歌、百度以及更多的类ChatGPT项目入局,以ChatGPT为代表的AI算力和GPU相关需求,将会继续提高。



Baidu
map