证券之星消息,龙芯中科(688047)03月12日在投资者关系平台上答复投资者关心的问题。
投资者提问:字节豆包团队提出全新的稀疏模型架构UltraMem--降低内存访问需求,使得CPU成为可行的推理载体,驱动CPU架构创新,这自然会减少对GPU的依赖。如果很多模型可以在CPU上高效运行,厂商可能会更倾向于使用CPU,尤其是成本降低的情况下。这可能打破GPU在AI推理中的主导地位,尤其是英伟达的市场份额。那么龙芯有做相应的对接以及布局吗?自主架构优势显著,希望及时跟进!
龙芯中科回复:尊敬的投资者,您好。UltraMem架构主要特点是优化内存访问,降低内存占用,提高推理速度。我们认为GPU仍然是它的理想载体,在这种特定场景下CPU并发度不如GPU,CPU可以与GPU或NPU一起协同处理。龙芯坚持自主研发CPU和GPU,第二代GPGPU核支持AI计算功能,已集成至现有芯片,如2K3000芯片提供8TOPSINT8算力,可用于小规模端侧AI部署,后续芯片还将进一步提升通用计算和AI计算能力。同时,龙芯也在大力发展基于龙架构和自研GPGPU的算力和AI软件栈的生态建设。感谢您对公司的关注。
以上内容为证券之星据公开信息整理,由智能算法生成(网信算备310104345710301240019号),不构成投资建议。