(以下内容从华福证券《电子行业周报:AI芯片推陈出新,HBM或迎成长机遇》研报附件原文摘录)
Nvidia 发布新一代 GPU 芯片 H200,HBM3e 助力性能升级。11 月 13 日,NVIDIA 宣布推出新一代的 GPU H200,本次新品发布的最大亮点在于,H200 为全球首款搭载 HBM3e 内存的 GPU。在全球最快内存 HBM3e 的助力下,H200 在内存容量、带宽和性能等方面迎来了全面升级。一方面,H200 能以每秒 4.8TB 的速度提供 141GB 内存,内存较 A100 和 H100 几乎翻倍,带宽较 A100 和 H100 分别增加 2.4/1.4 倍;另一方面,高内存带宽也使 H200 能够实现更快的数据传输,对于模拟、人工智能等内存密集型的高性能计算场景,H200 可实现较 CPU 快 110 倍的生成结果时间,为处理生成 AI 和 HPC 工作负载的海量数据提供强大支持。
AI 高算力需求推动下,HBM 将大放异彩。AI 大模型的兴起催生了海量算力需求,而数据处理量和传输速率大幅提升使 AI 服务器对芯片内存容量和传输带宽提出了更高的要求。HBM 在此背景下应运而生。与传统DDR 存储器不同,HBM 使用 TSV 和微凸块垂直堆叠多个 DRAM 芯片,并通过封装基板内的硅中介层与 GPU 直接相连,从而具备高带宽、高容量、低延时与低功耗等优势,相同功耗下其带宽是 DDR5 的三倍以上。因此,HBM 突破了内存瓶颈,成为当前 AI GPU 存储单元的理想方案和关键部件。TrendForce 认为,高端 AI 服务器 GPU 搭载 HBM 芯片已成主流,2023 年全球搭载 HBM 总容量将达 2.9 亿 GB,同比增长近 60%,SK 海力士预测,HBM 市场到 2027 年将出现 82%的复合年增长率。
HBM 成为存储大厂兵家必争之地,H200 或将再次掀起 HBM 布局大战。作为 AI 芯片的主流解决方案,HBM 受到了存储巨头的高度重视。自2013 年 SK 海力士首次成功研发 HBM 以来,三星、美光等存储巨头也纷纷入局,展开了 HBM 的升级竞赛,目前 HBM 已从第一代(HBM)升级至第四代(HBM3)。据报道显示,三星正在向 AMD 提供 HBM3 和交钥匙封装服务,并完成了与主要客户关于 2024 年 HBM 供应的谈判;SK 海力士则于今年 8 月向 Nvidia 提供了 HBM3e 的样品,并正在向 AMD 供应HBM3。与此同时,台积电也宣布将 CoWoS 产能扩大两倍,以期更好地支撑水涨船高的 HBM 需求。展望未来,H200 的推出有望再次掀起 HBM布局浪潮,随着存储巨头的持续发力,产业链上下游企业也将紧密部署,HBM 的影响力将逐步扩大并带来全新机遇。
投资建议:半导体方向,建议关注上游设备、材料、零部件国产替代机会,如昌红科技、新莱应材、正帆科技、汉钟精机、腾景科技、英杰电气等,以及IC封装领域重点公司,如长电科技、通富微电、华天科技、晶方科技等;PCB方向,建议关注积极参与AI及服务器相关赛道的公司,如沪电股份、胜宏科技等;消费电子方向,建议关注消费电子行业的触底复苏机会,如顺络电子、风华高科、飞荣达、汇顶科技、春秋电子等。
风险提示:地缘政治风险,电子行业景气复苏不及预期,消费电子下游需求不及预期,AI芯片下游需求不及预期,相关公司新产品研发不及预期,半导体国产替代进度不及预期