ChatGPT 热潮席卷全球。ChatGPT(Chat Generative Pre-trained Transformer)是由OpenAI 于 2022年 12月推出的对话 AI 模型,一经面世便受到广泛关注,其 2023年 1月月活跃用户达到 1亿,是史上月活用户增长最快的消费者应用。主要以问答类为主,但与其他问答类 AI 产品不同,ChatGPT 具备训练集中的所有知识,具有语言生成能力,可以实现拟人化交流,而不只是像天猫精灵、小爱同学等其他AI 产品的一问一答模式。在问答模式的基础上 ChatGPT 可以进行推理、编写代码、文本创作等等,这样的特殊优势和用户体验使得应用场景流量大幅增加。
芯片需求=量↑x 价↑1) 量:AIGC 带来的全新场景+原场景流量大幅提高① 技术原理角度: ChatGPT 是基于 GPT3.5架构开发的对话 AI 模型,历经GPT-1/2/3迭代,在 GPT3.5模型后,开始引入代码训练和指令微调,加入RLHF 技术(人类反馈强化学习),从而实现能力进化。GPT 作为知名的NLP 模型,基于 Transformer 技术,随着模型不断迭代,层数也越来越多,对算力的需求也就越来越大。
② 运行条件角度:ChatGPT 完美运行的三个条件:训练数据+模型算法+算力。
其中训练数据市场广阔,技术壁垒较低,投入足够的人力物力及财力后即可获得;基础模型及模型调优对算力的需求较低,但获得 ChatGPT 功能需要在基础模型上进行大规模预训练,存储知识的能力来源于 1750亿参数,需要大量算力。所以,算力是 ChatGPT 运行的关键所在。
2) 价:对高端芯片的需求将拉动芯片均价采购一片英伟达顶级 GPU 成本为 8万元,GPU 服务器成本通常超过 40万元。对于 ChatGPT 而言,支撑其算力基础设施至少需要上万颗英伟达 GPU A100,一次模型训练成本超过 1200万美元。从芯片市场角度出发,芯片需求的快速增加会进一步拉高芯片均价。目前 OpenAI 已推出 20美元订阅模式,初步构建了优质的订阅商业模型,未来继续扩容的能力将会大幅提升。
“背后英雄”系 GPU 或 CPU+FPGA 等算力支撑1)GPU 可支撑强大算力需求。具体来说,从 AI 模型构建的角度:第一阶段是用超大算力和数据构建预训练模型;第二阶段是在预训练模型上进行针对性训练。而 GPU 由于具备并行计算能力,可兼容训练和推理,所以目前被广泛应用,ChatGPT 训练模型中就已导入至少 1万颗英伟达 GPU(曾经风靡一时的AlphaGO 也只需要 8块 GPU),推理部分使用微软的 Azure 云服务,也需要GPU 进行运作。所以,ChatGPT 的火热兴起对 GPU 的需求可见一斑。
2)CPU+FPGA 拭目以待。从深度学习的角度来看,虽然 GPU 是最适合深度学习应用的芯片,但 CPU 和 FPGA 也不可忽略。FPGA 芯片作为可编程芯片,可以针对特定功能进行扩展,在 AI 模型构建第二阶段具有一定的发挥空间。而FPGA 想要实现深度学习功能,需要与 CPU 结合,共同应用于深度学习模型,同样可以实现庞大的算力需求。
3)云计算依靠光模块实现设备互联。AI 模型向以 ChatGPT 为首的大规模语言模型发展,驱动数据传输量和算力提升。伴随数据传输量的增长,光模块作为数 据中心内设备互联的载体,需求量随之增长。此外,伴随算力提升能耗增长,厂商寻求降低能耗方案,推动低能耗的光模块发展。
结论:ChatGPT 作为一种新兴的超智能对话 AI 产品,无论是从技术原理角度还是运行条件角度,ChatGPT 都需要强大算力作为支撑,从而带动场景流量大幅增加,此外,ChatGPT 对于高端芯片的需求增加也会拉动芯片均价,量价齐升导致芯片需求暴涨;面对指数级增长的算力和数据传输需求,可以进行提供的GPU 或 CPU+FPGA 芯片厂商、光模块厂商即将迎来蓝海市场。
看好:看好国内 GPU、CPU、FPGA、AI 芯片及光模块产业链玩家。
① GPU:海光信息、景嘉微② CPU:龙芯中科、中国长城③ FPGA:安陆科技、复旦微电、紫光股份④ AI 芯片:寒武纪、澜起科技⑤ 光模块:德科立、天孚通信、中际旭创 风险提示:1)半导体下游需求不及预期;2)研发进度不及预期。