(以下内容从海通国际《中国电子:2025年7月28日全球科技新闻汇总》研报附件原文摘录)
AI、ASIC伺服器都是吃电怪兽BBU需求“直线向上”(Digitimes)
AI伺服器耗电量快速拉升,带动电池备援电力模组(BackupBatteryUnit;BBU)需求直线向上大爆发。市场预期,顺达科、台达电、AES、光宝科等关键台系业者,可望持续受惠。BBU模组厂指出,不仅NVIDIAGPU机柜,云端服务大厂(CSP)的ASIC机柜,所采用的BBU模组比重也在拉升。且随着机柜耗电量持续拉升,BBU容量持续垫高。业者更指出,下世代AI资料中心电力传输技术趋势走向HVDC(高压直流),BBU的需求将有增无减。电池模组厂顺达科为台系BBU模组主力供应商之一,总经理张崇兴指出,目前客户BBU模组容量为3kW与5.5kW,预计2026年将会以5.5kW及8kW为主,因应客户对AI伺服器机柜耗电量对应的备援电力需求,已开发因应HVDC所需要的20kW以上产品。
WAIC2025中国超节点集体秀华为升腾CloudMatrix384实机亮相(Digitimes)
2025年世界人工智慧大会(WAIC)于7月26日在上海世博中心开幕,智算超节点(SuperPod)在众多展品中显得尤为突出,其中,华为升腾CloudMatrix384真机Atlas900A3SuperPoD更是首次亮相。除了华为以外,中兴、新华三、超聚变等中国本土伺服器业者超节点方案,也纷纷亮相WAIC2025,共同上演一场中国智算超节点的“集体秀”。在2025年5月的鲲鹏升腾开发者大会上,华为正式推出升腾超节点,成功实现业界最大规模的384卡高速汇流排互联。目前升腾384超节点客户除了百度、美团、字节跳动、蚂蚁、京东等业者外,以及华为内部大模型,国企工行、邮政银行的内部大模型也都采用升腾384训练。
100万卡vs5000万卡芯片战,奥特曼、马斯克神仙打架(腾讯研究院)
1.OpenAI计划年底前上线100万张GPU,对标马斯克xAI五年内部署5000万卡的目标,算力军备竞赛白热化;
2.OpenAI通过自研芯片、星门计划和微软合作三条路径追求算力自主,计划2030年将75%算力来源转移至星门项目;
3.硅谷巨头掀起算力战争,2025年AI资本支出预计达3600亿美元,折合2.5万亿人民币,头部云厂将掌握行业核心资源。