(以下内容从海通国际《中国媒体:ChatGPT技术原理解读》研报附件原文摘录)
2017年,AlphaGo在围棋比赛中完胜世界冠军柯洁;2022年,OpenAI旗下的ChatGPT横空出世。我们认为,这种类似人类的思辨能力,展现了里程碑式的技术变迁,使人们用“创造”而非“计算”去重新理解人工智能。或许,这就是比尔·盖茨认为:ChatGPT出现的意义不亚于互联网和个人电脑诞生的原因。
ChatGPT是建立在GPT架构之上的AI智能聊天机器人。GPT的全称是GenerativePre-TrainedTransformer,生成式预训练变换模型。
G是Generative,指生成式,作用在于生成内容。不同于搜索引擎,它通过“单字接龙”生成全新的文本,而非仅匹配数据库现有内容,根据任意长度的上文,生成下一个字,再把自己生成的下一个字和之前的上文组合成新的上文,以此不断的循环从词到句到段落。比如输入为“今”,生成“今天”后再生成“今天天”,一直到“今天天气真好"。它也可能输出“今天天气真差”,这取决于背后的模型,会根据训练经验和上下文生成最符合语言规律和意义的内容,答案可能不同。
GPT中,“P”是Pre-Trained,指预训练,代表模型已经在某些有限的材料中进行相关的训练。那么,它如何进行的呢?主要依靠两个数据集和三个模型来进行训练优化。具体3步骤如下:一、标签化数据输入并有监督的进行训练:人工标注对话数据集,然后利用强监督学习来训练预训练模型。二、训练奖励阶段。对几个输出回答,通过评分机制来标注排序数据集,形成RewardModel。三、通过强化学习PPO算法强化前两部模型结果。
T,Transformer是底层的深度学习模型,我们可以类比于一个聪明的语言机器人接收到用户输入的文本后,基于学习到的知识和经验,在接收文本输入后自动理解用户意图并生成回答。
ChatGPT采用语言大模型,在一个个微小的训练、迭代下,不断学习与人类交互。GPT4于2023年3月发布,其参数量预计已达万亿。生成式AI能一定程度上模拟人类的创造力和想象力,这还是基于世界范围内较大的知识库之上的。可以说,ChatGPT叩响人工智能的关键奇点,这也使它在2022年11月推出仅仅两个月,就达到月活过亿。根据华尔街见闻援引SensorTower数据,TikTok在全球推出后用约9个月时间达到1亿用户,Instagram用了30个月才达到同样的基准。ChatGPT的开发者OpenAI,始建于2015年,成为行业先行者;国内百度也在2023年3月推出大语言模型产品—“文心一言”。
风险提示:国内大模型开发进度不及预期。
相关附件