首页 - 股票 - 研报 - 行业研究 - 正文

计算机行业跟踪报告:谷歌再更新Gemini大模型,立足MoE架构性能更加卓越

来源:万联证券 作者:夏清莹 2024-02-21 18:52:00
关注证券之星官方微博:
(以下内容从万联证券《计算机行业跟踪报告:谷歌再更新Gemini大模型,立足MoE架构性能更加卓越》研报附件原文摘录)
行业核心观点:
谷歌推出Gemini1.5Pro版本,性能水平与Gemini1.0Ultra类似。2024年2月15日,谷歌再次更新其Gemini大模型至Gemini1.5代,并推出Gemini1.5Pro版本。Gemini1.5Pro的性能水平与谷歌至今6343为止最大的模型Gemini1.0Ultra类似。与Gemini1.0代对比,Gemini1.5Pro的性能大大超过了Gemini1.0Pro,在绝大多数(27/31)的基准测试(benchmarks)中表现更好;而在与Gemini1.0Ultra的对比中,Gemini1.5Pro在超过一半的基准测试上表现更好,尤其是在多数文本基准测试(10/13)和部分视觉基准测试(6/13)中都表现优于Gemini1.0Ultra。
投资要点:
建立在MoE架构上,能更高效的训练和服务。Gemini1.5大模型建立在对稀疏(sparse)混合专家(mixture-of-expert,MoE)架构及Transformer架构领先的研究上,其训练和服务更为高效。传统的Transformer是一个大型神经网络,而MoE模型则被划分为更小的“专家”神经网络。混合专家模型(MoE)主要由两个关键部分组成:1)稀疏MoE层:这些层代替了传统Transformer模型中的前馈网络(FFN)层。MoE层包含若干“专家”,每个“专家”本身是一个独立的神经网络;2)门控网络或路由:这个部分用于决定每个token被发送到哪个“专家”。这种“术业有专攻”的架构,能够极大的提高模型的效率,让MoE能够在远少于稠密模型所需的计算资源下进行有效的预训练,因此基于MoE架构的Gemini1.5在训练和服务上也更为高效。
具备超大容量的上下文窗口,可对大量信息进行复杂推理。Gemini1.5Pro是一种中等规模(mid-size)的多模态模型,引入了在上下文理解方面的突破性实验特征。Gemini1.5Pro除了配有标准的128,000token的上下文窗口,少数开发人员和企业客户还可以通过AI Studio和VertexAI的私人预览版在最多1,000,000个token的上下文窗口中进行尝试和体验。100万个token的上下文窗口容量相当于Gemini1.5Pro可以一次性处理1小时视频/11小时音频/超过30,000行代码/超过700,000个单词(word)的信息库,能够对大量的信息进行复杂推理。
投资建议:Gemini1.5Pro的超大容量上下文窗口有助于其应用在更多的领域。同时,MoE架构能让模型更高效的训练和服务,也有助于多模型大模型在应用端的加速落地。我们认为MoE架构有望成为多模态大模型的主流应用架构之一,建议关注超大容量上下文长度以及MoE架构助力多模态大模型在应用端加速落地带来的投资机遇,同时继续关注多模态大模型对算力的持续需求。
风险因素:人工智能产业发展不及预期,应用落地不及预期,AI带来的隐私、版权与技术风险。





微信
扫描二维码
关注
证券之星微信
APP下载
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-