首页 - 股票 - 研报 - 行业研究 - 正文

计算机行业点评:DeeSeek-V2定价普惠或激活AI应用发展

来源:德邦证券 作者:陈涵泊 2024-05-13 08:47:00
关注证券之星官方微博:
(以下内容从德邦证券《计算机行业点评:DeeSeek-V2定价普惠或激活AI应用发展》研报附件原文摘录)
投资要点:
DeepSeek发布全球最强开源MoE模型,性能媲美GPT-4等主流大模型。5月6日,幻方量化旗下AI公司DeepSeek开源第二代MoE模型:DeepSeek-V2,在目前大模型主流榜单中,性能均表现出色。具体来看:1)中文综合能力(AlignBench)开源模型中最强,与GPT-4-Turbo,文心4.0等闭源模型在评测中处于同一梯队;2)英文综合能力(MT-Bench)与最强的开源模型LLaMA3-70B同处第一梯队,超过最强MoE开源模型Mixtral8x22B;3)知识、数学、推理、编程等榜单结果位居前列;4)同时支持128K上下文窗口。
DeepSeek-V2相比GPT-4的定价降低了两个数量级,价格的普惠或加速推动AIGC应用开发与推广。DeepSeek-V2API的定价为每百万tokens输入1元、输出2元(32K上下文),而GPT4-Turbo API的定价为每百万输入72元、输出217元,DeepSeek-V2价格仅为GPT-4-Turbo的近百分之一。就中文能力来看,DeepSeek-V2在全球模型中性能处于第一档的位置,而成本是最低的,展现出极高的性价比。我们认为,在应用开发阶段,模型的使用成本是开发者和企业的重要考量因素,价格的降低有利于吸引更多的开发者和企业的入局,或加速AIGC应用的开发节奏与商业化成型;在应用推广阶段,价格走低将大幅降低应用的推理成本与用户的使用门槛,促使AIGC应用规模化推广与普惠化落地。
全新的模型架构大幅减少了模型计算量与推理显存,从而促成模型性能提升与价格压缩。DeepSeek-V2没有沿用主流的“类LLaMA的Dense结构”和“类Mistral的Sparse结构”,而是对模型框架进行了全方位的创新,提出了媲美MHA的MLA(Multi-head Latent Attention)架构,大幅减少计算量和推理显存;自研Sparse结构DeepSeekMoE进一步将计算量降低到极致,两者结合最终实现模型性能跨级别的提升。根据DeepSeek的估计,DeepSeek-V2以236B总参数、21B激活,大致达到70B~110B Dense的模型能力,同时消耗的显存(KV Cache)只有同级别Dense模型的1/5~1/100,每token成本大幅降低。实际部署在8卡H800机器上,输入吞吐量超过每秒10万tokens,输出超过每秒5万tokens。
投资建议。大模型的性能提升叠加价格下降有望激活国内AI应用的发展。建议关注AI大模型:科大讯飞、拓尔思、三六零、昆仑万维、商汤科技、云从科技等;AI+办公:金山办公、万兴科技、福昕软件、彩讯股份、金蝶国际、泛微网络、致远互联、鼎捷软件、汉得信息,用友网络等;AI+教育/电商/医疗:科大讯飞、佳发教育、鸥玛软件、盛通股份、值得买、焦点科技、小商品城、润达医疗、嘉和美康、创业慧康等。
风险提示:宏观经济下行风险、产品发布不及预期风险、政策落地不及预期风险等。





微信
扫描二维码
关注
证券之星微信
APP下载
好投资评级:
好价格评级:
证券之星估值分析提示科大讯飞盈利能力一般,未来营收成长性一般。综合基本面各维度看,股价偏高。 更多>>
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-