首页 - 股票 - 公司新闻 - 正文

美团发布大模型「龙猫」:非思考型基础模型,面向推理效率

来源:财经涂鸦 2025-09-04 09:54:36
关注证券之星官方微博:

(原标题:美团发布大模型「龙猫」:非思考型基础模型,面向推理效率)


公司情报专家《财经涂鸦》获悉,9月1日,美团宣布正式发布龙猫(LongCat-Flash-Chat)大模型,并同步开源。


作为一款非思考型基础模型,龙猫采用创新性混合专家模型(Mixture-of-Experts, MoE)架构,由于主要面向推理效率的设计和创新,该模型具有更快的推理速度,更适合耗时较长的复杂智能体应用。


目前,LongCat-Flash-Chat已在Github、Hugging Face平台同步开源。


值得一提的是,龙猫已于8月28日启用名为“LongCat”的独立公众号,注册主体为北京三快科技有限公司,账号简介为“美团龙猫Longcat大模型官方账号”。9月1日,该公众号发布了第一篇也是截至目前唯一一篇文章,名为《美团正式发布并开源LongCat-Flash-Chat,动态计算开启高效AI时代》。


来源:龙猫公众号截图


从性能方面看,美团表示,在仅激活少量参数的前提下,该模型依然可“比肩当下领先的主流模型”,尤其在智能体任务中具备突出优势,实现了计算效率与性能的双重优化。


据介绍,LongCat-Flash模型在架构层面引入“零计算专家(Zero-Computation Experts)”机制,总参数量560 B,每个token 依据上下文需求仅激活18.6B~31.3 B参数,实现算力按需分配和高效利用。


通过算法和工程层面的联合设计,LongCat-Flash在理论上的成本和速度都大幅领先行业同等规模、甚至规模更小的模型;通过系统优化,其在H800上可实现100 tokens/s的生成速度,在保持极速的同时,输出成本低至 5元/百万token。


同时,该模型在通用领域知识、智能体(Agentic)工具使用、编程及指令遵循方面均实现了显著的性能优势。


美团表示,已同步提供了分别基于SGLang和vLLM两种高效部署方案,以协助用户轻松部署、快速体验模型效果。此次开源仓库统一采用 MIT License,并允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。


今年3月份,王兴曾于2024年第四季度及年度业绩会中强调,“当像AI这样具有根本性革命意义的技术到来时,唯一可行的策略是调动所有资源主动进攻”。


他透露,美团自主研发的“龙猫”大语言模型已与外部模型协同应用,推动员工生产力得到显著提升。


例如在客服领域,基于自研模型打造的智能客服代理试点运营后,效率提升超20%,客户满意度上升7. 5个百分点;在商务拓展中,AI销售助手帮助团队在今年春节期间完成120万商户信息更新,使BD团队工作量减少44%,平台商户信息准确率同步提升;技术团队使用的AI编程工具已集成至开发环境,目前公司27%的新代码由AI生成。


在5月份Q1业绩会中,美团又宣布于季内迭代了基础大语言模型,增强后的模型可在推理模式与非推理模式间无缝切换,且两种模式下的性能均达到国内领先模型水平。


同步更新的端到端语音交互模型,则在理解情感、语境等细微信息及进行自然语音对话方面展现出先进能力,性能已接近 GPT 4.0 水平。


不久前Q2业绩会中,管理层进一步表示,扩展了AI业务协助的场景覆盖范围,努力覆盖从简单日常任务到复杂操作的端到端工作流程,帮助商家降低成本、提高效率。


今年以来,美团已连续发布AI Coding Agent工具NoCode、经营决策助手袋鼠参谋、酒店垂类AI Agent美团既白等多款垂直场景应用。


作者:苏打

编辑:tuya

出品:财经涂鸦(ID:caijingtuya)

微信
扫描二维码
关注
证券之星微信
APP下载
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-