证券之星消息,格灵深瞳(688207)02月21日在投资者关系平台上答复投资者关心的问题。
投资者提问:看到新闻格灵深瞳公司基于Unicom的深瞳灵感-7B多模态大模型在业界同等规模的VLM模型中居世界领先地位,已经优于业界普遍使用的OpenAICLIP和谷歌SigLIP。请问该情况是否属实?公司目前自研开发的多模态大模型进展如何?是否已经开始进行公开开放落地使用?谢谢
格灵深瞳回复:尊敬的投资人,您好!公司自研的视觉大模型Unicom采用VisionTransformer的网络架构在10亿量级图像数据上预训练,学术评测超过CLIP和SigLIP,实验结果已经公布在计算机视觉会议ECCV2024相关论文上,模型已经开源github.com/deepglint/unicom。结合公司自研的视觉大模型Unicom和开源大语言模型,深瞳灵感-7B多模态大模型在具身问答(EmbodiedQuestionAnswering)任务和引用表达分割(ReferringExpressionSegmentation)任务中,与业界同等规模的VLM模型相比居世界领先地位。公司目前主要服务政企客户,正在推动持续研发的多模态大模型逐步落地应用,如需测试可通过上述开源链接下载及部署。感谢您的关注!
以上内容为证券之星据公开信息整理,由智能算法生成(网信算备310104345710301240019号),不构成投资建议。