(以下内容从海通国际《中国科技战略:谷歌I/O大会发布全新一代大模型,能力大幅提升》研报附件原文摘录)
事件
5月11日,谷歌2023年I/O开发者大会在硅谷召开,生成式AI是本场大会的重点,多位谷歌高管轮番上场,公布了一系列涉及全新大模型、AI聊天机器人、搜索、办公软件、云服务、安卓系统等与生成式AI相关的进展。
点评
全新一代大语言模型PaLM2推出,多语言、推理和编程方面进展显著。谷歌的新一代大语言模型PaLM2采用谷歌最新的TPU基础设施进行训练,擅长数学、推理、多语言翻译、编程。在多语言方面,PaLM2对100多种语言文本进行了训练,PaLM2已完成日语和韩语的训练,Bard将会开放日语和韩语模式,其他语言会在接下来的版本中陆续开放。在推理方面,PaLM2扩大了的数据集的范围,纳入了包含数学表达式的科学论文和网页,因此它在逻辑、常识推理和数学方面比上一代更强。在编程方面,PaLM2接受了超过20种编程语言的预训练,可以理解、生成和调试Python、JavaScript、Prolog、Fortran和Verilog等语言的代码,还能解释、修复错误背后的原因,以便开发者在世界各地进行协作。此外,为了适应不同的场合,谷歌构建了Gecko(壁虎)、Otter(水獭)、Bison(野牛)、Unicorn(独角兽)从小到大4种训练参数的PaLM2模型。
对比LLaMA和GPT,PaLM2竞争力十足。Bard已取消等候名单,向180多个国家和地区开放。在具体的功能上,Bard的聊天问答新增了图像互动,还升级了编程和导出功能,支持一键导出到Gmail、谷歌文档、表格之中。据Google公布的技术报告,PaLM2在评估模型的常识推理和自然语言推理能力的WinoGrande数据集测试上获得了90.9的精度,高于SOTA(LLaMA)和GPT-4,说明其拥有更强的上下文理解能力用以判断事件的真实性,而在ARC-C和DROP两个数据集上PaLM2精度低于SOTA和GPT-4,说明其在大规模阅读理解以及推理计算能力上相对较弱。StrategyQA、BBHard和XCOPA三个数据集的高精度代表PaLM2具有很强的规则理解、策略推理以及多语言文本理解能力。根据PaLM2在MATH、GSM8K、MGSM三个数据集的测试结果可以得出,其在数学问题求解方面相对较弱,在语音情感识别以及多语言情感识别能力上相对于SOTA和GPT0-4更强。
谷歌AllinAI,推出生成式AI全家桶。在本次大会上,谷歌宣布了超过25款由PaLM2驱动的新产品和新功能。谷歌对标微软的Copilot推出了DuetAI,DuetAI将被全面集成至谷歌旗下的WorkSpace,包括谷歌文档、表格、幻灯片、会议、GmailMeet的自动会议摘要等等,同时还推出名为Sidekick的新功能,能跨不同的谷歌应用程序进行阅读、总结和回答文档中的问题。面对Bing的步步紧逼,谷歌搜索还将上线生成式AI,在用户搜索问题后会先出现AI提供的更直接的答案。此外,谷歌还推出了基于谷歌旗舰芯片GoogleTensorG2的Pixel7a、PixelFold和PixelTablet平板电脑,PixelTablet平板电脑售价499美元,定位于GoogleHome智能家居的中控设备。我们认为Google和OpenAI不断加剧的激烈竞争,会推进生成式AI的发展,ALLinAI的Google或将成为OpenAI最有力的竞争对手。
风险
大模型发展不及预期,AI推广不及预期,政策因素等。
相关附件