首页 - 股票 - 研报 - 行业研究 - 正文

电子行业点评报告:AI端侧之近存计算:CUBE有望助力端侧AI落地

来源:开源证券 作者:陈蓉芳,陈瑜熙 2025-02-25 21:51:00
关注证券之星官方微博:
(以下内容从开源证券《电子行业点评报告:AI端侧之近存计算:CUBE有望助力端侧AI落地》研报附件原文摘录)
核心观点
随着AI算力需求的不断提升,冯·诺依曼架构的存算性能失配问题日益显现,存算一体化技术应运而生。近存计算通过2.5D和3D堆叠技术有效融合计算与存储,提升内存带宽并降低访问延迟,成为提升芯片性能的主流方案。HBM和CUBE方案作为代表,能够广泛应用于高性能计算和边缘设备中,随着AI终端的普及和算力需求的加速,近存计算有望成为未来技术发展的关键趋势。
算力需求提升导致冯·诺依曼架构存算性能失配,近存计算将破局
冯氏架构以计算为中心,计算和存储分离,二者配合完成数据的存取与运算,在AI时代随算力持续提升,存算之间性能失配问题凸显。近存计算利用先进的封装技术,将计算逻辑芯片和存储器封装到一起,通过减少内存和处理单元之间的路径,实现高I/O密度,进而实现高内存带宽以及较低的访问开销。我们认为未来近存计算将成为AI时代芯片性能提升的主流方案。
HBM历经多次迭代,已成为高性能计算、数据中心主流近存计算架构
HBM采用TSV技术堆叠DRAM die以大幅提升I/O数,再配合2.5D先进封装制程,在维持较低内存频率的同时达到更显著的总通道宽度提升,兼具高带宽、高容量、低功耗。自2016年以来,HBM(高带宽内存)技术不断革新。HBM2(2018)采用8层DRAM,提供256GB/s带宽,2.4Gbps传输速度,8GB内存。HBM2E(2020):将传输速度提升至3.6Gbps,内存增加至16GB。HBM3(2022)将堆叠层数和管理通道增加,传输速度最高可达819GB/s,16GB内存。HBM3E将传输速度高达8Gbps,容量增至24GB。目前HBM已广泛应用于高性能计算、数据中心等领域。
AI终端持续落地,CUBE方案有望大放异彩
CUBE采用2.5D或3D封装,与主芯片SoC集成,通过高达1024个I/O实现超高带宽,可广泛适用于适用于可穿戴设备、边缘服务器设备、监控设备及协作机器人等高级应用。CUBE容量相对较小,适用于边缘端应用。以AI-ISP为例,AI-ISP中有很多灰色部分属于神经网络处理器(NPU),如果AI-ISP要实现大算力,就需要很大的带宽,或者是SPRAM。但是在AI-ISP上使用SPRAM的成本非常高,使用LPDDR4的话,因为需要4-8颗,因此成本亦较高。使用CUBE方案则可以缩小L3缓存,放大L4缓存,在降低芯片成本的同时提高带宽。未来随AI手机等AI端侧设备以及机器人等新型AI终端发展,CUBE有望成为端侧AI主流近存计算架构。
受益标的:北京君正、兆易创新、瑞芯微。
风险提示:下游需求不及预期,技术验证及迭代不及预期。





fund

微信
扫描二维码
关注
证券之星微信
APP下载
好投资评级:
好价格评级:
证券之星估值分析提示机器人盈利能力一般,未来营收成长性较差。综合基本面各维度看,股价偏高。 更多>>
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-