(原标题:美团发布大模型「龙猫」:非思考型基础模型,面向推理效率)
公司情报专家《财经涂鸦》获悉,9月1日,美团宣布正式发布龙猫(LongCat-Flash-Chat)大模型,并同步开源。
作为一款非思考型基础模型,龙猫采用创新性混合专家模型(Mixture-of-Experts, MoE)架构,由于主要面向推理效率的设计和创新,该模型具有更快的推理速度,更适合耗时较长的复杂智能体应用。
目前,LongCat-Flash-Chat已在Github、Hugging Face平台同步开源。
值得一提的是,龙猫已于8月28日启用名为“LongCat”的独立公众号,注册主体为北京三快科技有限公司,账号简介为“美团龙猫Longcat大模型官方账号”。9月1日,该公众号发布了第一篇也是截至目前唯一一篇文章,名为《美团正式发布并开源LongCat-Flash-Chat,动态计算开启高效AI时代》。
来源:龙猫公众号截图
从性能方面看,美团表示,在仅激活少量参数的前提下,该模型依然可“比肩当下领先的主流模型”,尤其在智能体任务中具备突出优势,实现了计算效率与性能的双重优化。
据介绍,LongCat-Flash模型在架构层面引入“零计算专家(Zero-Computation Experts)”机制,总参数量560 B,每个token 依据上下文需求仅激活18.6B~31.3 B参数,实现算力按需分配和高效利用。
通过算法和工程层面的联合设计,LongCat-Flash在理论上的成本和速度都大幅领先行业同等规模、甚至规模更小的模型;通过系统优化,其在H800上可实现100 tokens/s的生成速度,在保持极速的同时,输出成本低至 5元/百万token。
同时,该模型在通用领域知识、智能体(Agentic)工具使用、编程及指令遵循方面均实现了显著的性能优势。
美团表示,已同步提供了分别基于SGLang和vLLM两种高效部署方案,以协助用户轻松部署、快速体验模型效果。此次开源仓库统一采用 MIT License,并允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。
今年3月份,王兴曾于2024年第四季度及年度业绩会中强调,“当像AI这样具有根本性革命意义的技术到来时,唯一可行的策略是调动所有资源主动进攻”。
他透露,美团自主研发的“龙猫”大语言模型已与外部模型协同应用,推动员工生产力得到显著提升。
例如在客服领域,基于自研模型打造的智能客服代理试点运营后,效率提升超20%,客户满意度上升7. 5个百分点;在商务拓展中,AI销售助手帮助团队在今年春节期间完成120万商户信息更新,使BD团队工作量减少44%,平台商户信息准确率同步提升;技术团队使用的AI编程工具已集成至开发环境,目前公司27%的新代码由AI生成。
在5月份Q1业绩会中,美团又宣布于季内迭代了基础大语言模型,增强后的模型可在推理模式与非推理模式间无缝切换,且两种模式下的性能均达到国内领先模型水平。
同步更新的端到端语音交互模型,则在理解情感、语境等细微信息及进行自然语音对话方面展现出先进能力,性能已接近 GPT 4.0 水平。
不久前Q2业绩会中,管理层进一步表示,扩展了AI业务协助的场景覆盖范围,努力覆盖从简单日常任务到复杂操作的端到端工作流程,帮助商家降低成本、提高效率。
今年以来,美团已连续发布AI Coding Agent工具NoCode、经营决策助手袋鼠参谋、酒店垂类AI Agent美团既白等多款垂直场景应用。
作者:苏打
编辑:tuya
出品:财经涂鸦(ID:caijingtuya)