(以下内容从信达证券《电子:如何看待算力芯片与服务器的弹性?》研报附件原文摘录)
本期内容提要:
Transformer模型是参数量可以无限增长的通用模型,可以处理长序列的输入、输出。Transformer模型是一种基于自注意力机制的深度学习模型,相较于传统AI模型如循环神经网络(RNN)和卷积神经网络(CNN),它在处理序列数据时具有更高的并行性和可扩展性。其中,自注意力机制使得模型能够捕捉序列中长距离依赖关系,同时避免了RNN中的梯度消失或爆炸问题。Transformer模型的参数量之所以会随着数据量和任务复杂度无限增长,是因为它可以通过堆叠更多的层或增加隐藏层宽度来提高模型性能,从而适应更复杂的数据和任务;在传统CNN/RNN模型中,增加网络参数量会提高模型的拟合能力,但过多的参数容易导致过拟合现象。因此,长期来看大模型领域或许会出现没有上限的“军备竞赛”。
训练:根据英伟达测算,在4096颗A100GPU互联的情况下,训练10000亿参数的模型约需要3-4周时间,而在4096颗H100GPU互联的情况下,时间约需要1周左右。考虑到1周是研发阶段可承受的周期,因此我们认为4000颗左右H100将是一个大型云计算企业每年支持30-50个5000亿参数模型项目训练所需要的芯片数量。考虑到目前大模型参数量已经步入万亿级别,芯片需求量可能会继续上升。若以英伟达HGXH100-8计算集群为单位(1024NvidiaH100GPUs),总共需要4-8个计算集群,考虑到售价为4900万美金/集群,则单个支持GPT训练的云计算中心至少投入1.96-3.92亿美金用于服务器的购买。
推理:相比训练,模型的部署是更大的市场。我们认为应用对于服务器的最大承载能力要求在于过峰,即满足PCU时刻的访问需求。根据Statista,Steam2021年月活用户约为1.32亿人左右,而Steam公布服务器最高访问人数截至2021年12月31日为2738万人,最高817万人同时在线进行游戏。因此我们合理推断一款被高强度访问的应用,最高在线人数约为月活用户的6.19%-20.74%。假设在国内8亿用户体量下,最高并发访问人数可高达4952万人-16592万人。根据10DGXH100服务器一秒内可支持300用户的并发访问,若响应时长延缓至5秒及以上,最高可支持1000人以上的并发访问。据此测算,国内由AI带动的服务器需求量约为5万台-16.6万台,芯片为50-166万颗。假设全球活跃用户体量为国内用户体量的3倍,则全球服务器需求量为15-50万台,芯片需求量为150-500万颗。
投资建议:ChatGPT的快速渗透侧面反映出大模型在通用任务上所展现的强大能力,也为人工智能产业未来的投资指引了方向。在AIGC驱动新一轮产业革命的趋势下,我们认为AI算力产业链上下游均有投资机会。
建议关注:海光信息、寒武纪-U、龙芯中科、澜起科技、工业富联、紫光国微、中芯国际、华虹半导体、华大九天、概伦电子、芯原股份、兴森科技、通富微电、华正新材、方邦股份、长电科技、海康威视、大华股份、晶晨股份、瑞芯微、全志科技。
风险提示:技术迭代不及预期;制裁风险;本文对服务器、芯片需求量等测算是基于一定前提假设,存在假设条件不成立、市场发展不及预期等因素导致测算结果偏差。