(原标题:ChatGPT带火AI芯片 英伟达:都来找我们调货 需求特别大)
《科创板日报》2月11日讯(记者 张洋洋) “我这几天,电话都快打爆了。”聊起最近火爆出圈的ChatGPT,英伟达中国区一位高管用略带抱怨但难掩高兴的语气向《科创板日报》记者说道,其中逻辑在于,为ChatGPT供应算力的核心基建——AI芯片,成为各厂商们投资的关键,“这几天好多公司,包括云从科技,都来找我安排调货,根本就调不过来,需求特别大。”
英伟达成最大赢家?
ChatGPT等AI应用需要基于大量模型训练,它能如此睿智基于对天量数据的“吃透”,背后是强大算力的支撑,以GPT-3模型为例,其存储知识的能力来源于1750亿参数,训练所需的算力高达3650PFLOPS-day。
中信建投研报的数据显示,此前用于AI训练的算力增长符合摩尔定律,大约每20个月翻一番;深度学习的出现加速了性能的扩展,用于AI训练的算力大约每6个月翻一番;而目前大规模模型出现,其训练算力是原来的10到100倍。
这也难怪OpenAI在大炼GPT-3之前,让微软花10亿美元给自己独家定制了一台当时全世界排名前五的超级计算机。ChatGPT在2月7日宣布由于满负荷运行而暂停服务,主要原因是网络等资源的限制,且此前ChatGPT也出现多次宕机,这体现了AI应用对算力的旺盛需求。
ChatGPT主要涉及AI自然语言处理相关技术,底层算力芯片以高性能GPU为主。国内一名人工智能公司高管告诉《科创板日报》记者,该类芯片中英伟达占据主要市场,英伟达的芯片为大模型训练做了很多优化,“很好用”,它才是这次ChatGPT热潮的最大赢家。
从芯片技术角度来看,鲲云科技创始人兼CEO牛昕宇告诉《科创板日报》记者,英伟达的CUDA架构最初用于游戏GPU,相比于CPU更适用于大规模并行计算,基于其CUDA生态,积累了完善的开发者生态。这一轮人工智能产业发展的初期,市面上没有专门的AI加速芯片和硬件产品,开发者发现其产品可以应用于AI的训练和推理过程,就多采用其产品。
另外,英伟达的产品在通用性和算力密度方面有优势,而且因为算法模型巨大,对系统级的多芯片互联合作,高带宽的网络贮存要求以指数级的增长,英伟达对此早有布局,以收购和研发整合的手段,已形成完整成熟的解决方案。
在此番半导体产业下行周期下,英伟达成为跌跌不休半导体股中的“逆行者”。年初至今,该公司股票已经涨超55%,反映了投资者在ChatGPT热潮下对英伟达的看好。
就芯片采购问题,《科创板日报》记者以投资者身份致电云从科技,相关人士仅表示,公司和国产芯片公司有深度的适配,而且以前也有一些库存,芯片这一块不会受到国际芯片供应量影响。
不仅要自主“大模型” 还要芯片技术弯道超车
目前,全球主要科技公司已经相继公布了各自在ChatGPT领域的进展,先且不论各家接下来投入程度高低以及这些类ChatGPT产品“钱”景如何,可以预见的是,手握关键底层芯片的公司们,无疑将从这次ChatGPT浪潮中受益。
浙商证券认为,ChatGPT热潮席卷全球、AIGC将产生巨大算力市场的背景下,芯片需求将迎来量价齐升。
不过,在产业界看来,ChatGPT从西太平洋兴起,而后席卷至至大洋彼岸的中国,这给我国科技行业敲响警钟。
海银资本创始合伙人王煜全在2月7日发声称,中国不仅需要产生自主“大模型”,也应当在人工智能上进行芯片技术的“弯道超车”。
他认为,今天非常主流的CPU、GPU芯片生态,是美国政府和众多欧美科技企业花了30多年时间逐步培育、发展起来的。这个领域,从最上游的指令集、芯片设计软件,到下游制造需要的光刻机,都已经有非常成熟的布局。除了表面上能看到的各种技术专利、行业标准,还有大量沉淀在业内,很难快速传播和复制的制造、生产经验,已经形成了壁垒森严的体系。
“今天芯片产业面临的问题不是科研问题,更不是资本运作的问题,而是在成熟的产业生态体系里,我们没有占到核心关键点,更没有核心掌控力。”王煜全称。
具体到产业,王煜全号召,系统芯片异构计算时代,芯片企业、人工智能企业和产生大量数据的应用企业,这三方要深度合作,“这样芯片的制造水平未必是最好,但芯片训练的模型是最好的”。
人工智能发展多年,近年间的商业化进程在加快,但“针对AI底层算力的研究更早。”牛昕宇告诉记者,对ChatGPT这类大模型的训练,包括商业巨头和头部的研发机构都有持续在投入,像国内的百度、智源、华为、阿里等,其投入规模至今应该超百亿,主要是数据、硬件和人才的持续投入,可预知的是还有很长的路要走,大模型应用正处于行业爆发的前夜,可以拭目以待。
芯片领域,“虽然英伟达占据先发优势,但其他的厂商也在迎头赶上。”牛昕宇称,像百度、寒武纪、燧原、壁仞、鲲云等都有高性能的AI算力产品推出,百度的paddlepaddle生态也在完善中,鲲云也通过多个垂直行业的规模落地积累了生态和应用基础。