(以下内容从海通国际《晨会纪要》研报附件原文摘录)
投资要点:
10月社融继续边际改善,但政府债融资贡献了大部分,实体信贷需求还需要进一步提振,尤其是居民中长贷在脉冲式改善后又再度降至低位。近几个月宏观政策已经在接连发力,要稳固经济恢复的效果或还需要政策进一步支持。
我们认为,接下来货币政策或仍将维持宽松。一方面,尽管名义融资利率稳中有降,但若剔除通胀,实际利率还依然偏高;另一方面,新一轮财政发力、地方化债等,通常也离不开宽松货币的配合。我们预计,接下来存款准备金率、政策利率的调整仍有空间。
风险提示:后续政策落地情况。
LinYang:计算机行业跟踪周报321期:GPT-4Turbo发布,英伟达刷新MLPerf记录
投资要点:
GPT-4Turbo正式发布,性能提升同时大幅降价。根据OpenAI官网,当地时间11月6日,OpenAI召开了开发者大会并正式发布GPT-4Turbo,其功能更强大,最多支持128Ktokens上下文对话(GPT-4最多仅为32K),可在单次对话中容纳相当于300多页文本的信息,知识库更新到2023年4月。此外,GPT-4Turbo的输入成本仅为GPT-432K版本的1/6,输出成本也仅为GPT-432K版本的1/4。针对GPT-4Turbo,OpenAI发布了函数调用功能的多项更新,包括在一条消息中调用多个函数的能力:用户可以发送一条请求多个动作的消息,例如“打开车窗并关闭空调”,这在以前需要对模型进行多次访问。OpenAI还提高了GPT-4Turbo函数调用的准确性,其更有可能返回正确的函数参数。GPT-4Turbo指令跟踪能力也得到了改进,其在需要仔细遵循指令的任务上表现优于OpenAI之前的模型,例如“始终以XML格式回复”。GPT-4Turbo还支持AI的新JSON模式,该模式可确保模型以有效的JSON响应。
此外,GPT-4Turbo通过新的seed参数使模型在大多数时候返回一致的完成结果,从而实现了可重复的输出。我们认为,GPT-4Turbo在性能提升同时大幅降价,对未来大模型的普及起到了积极的作用,大模型落地速度或持续提升。
个性化ChatGPT推出,人人都可定制专属自己的模型。根据OpenAI官网,OpenAI正在推出个性化ChatGPT,用户可以根据特定目的去创建(这些模型),其被称为GPTs。任何人都可以轻松构建GPT,不需要编程,只需给它指令和额外知识,并选择它的功能,比如搜索网络、制作图像或分析数据即可。GPTs可以仅供用户自己使用,也可供公司内部使用,还可供所有人使用。此外,OpenAI将于本月晚些时候推出GPT商店,展示经过验证的用户创作的GPTs。在商店里,GPTs可以被(用户)搜索到并可能登上排行榜。
OpenAI还将重点介绍在生产力、教育和“仅供娱乐”等类别所属的最实用和最有趣的GPTs。在接下来的几个月里,用户还可以根据使用(自己创作的)GPT的人数来赚钱。除了使用OpenAI内置的功能,用户还可以通过向GPTs提供一个或多个API来自定义操作,这将允许GPTs集成外部数据或与现实世界交互。例如将GPTs连接到数据库,将其插入电子邮件,或使其成为用户的购物助手。此外,OpenAI还更新了ChatGPTPlus,未来用户无需通过模型选择器在不同模型之间切换,用户可以在不切换的情况下访问DALL·E、浏览和数据分析(等功能)。用户还可以附加文件,让ChatGPT搜索PDF和其他文档类型。我们认为,GPTs的推出,有助于推动模型在各领域的快速落地,未来AI商业化有望进入新纪元。
英伟达刷新MLPerf基准测试记录,未来LLM训练速度有望持续提升。根据英伟达官方博客,在MLPerf基准测试中,英伟达AI超算NVIDIAEos(使用10752个H100和NVIDIAQuantum-2InfiniBand网络互连)只用了3.9分钟就完成了基于GPT-3模型的基准测试,这比不到六个月前刷新记录的成绩——10.9分钟,提升了整整7分钟。(此次测试中Eos使用的)10752个H100GPU远远超过了6月份AI训练的规模,当时英伟达使用了3584个HopperGPU。(此次测试中)GPU数量扩展3倍,性能扩展了2.8倍,效率达到93%,这在一定程度上要归功于软件优化。高效扩展是生成式AI的关键要求,因为LLM每年都在以一个数量级的速度增长。最新结果显示,即使是世界上最大的数据中心,英伟达也有能力应对这一前所未有的挑战。这一成就归功于加速器、系统和软件创新的全栈平台,Eos和MicrosoftAzure在最近一轮测试中都使用了该平台。Eos和Azure在各自的提交中都采用了10752个H100。它们的表现相差不到2%,展示了英伟达AI在数据中心和公有云部署中的高效性。此外,在本轮新的生成式AI测试中,1024个NVIDIAHopper架构GPU在2.5分钟内完成了基于StableDiffusion文本到图像模型的训练基准测试,为这一新工作负载设定了高标准。我们认为,伴随各家科技公司对于算力领域的高度重视,未来LLM训练速度有望持续提升。
风险提示:AI技术发展不及预期的风险,AI商业落地不及预期的风险。