首页 - 股票 - 公司新闻 - 正文

AI应用元年还有哪些方向值得期待?

来源:证券之星资讯 2025-01-14 15:11:14
关注证券之星官方微博:

大模型从神话步入现实的历程启示我们:技术的真正魅力源自于“脱敏”。在褪去过度期待与泡沫之后,我们还需对技术本身进行脱敏,否则,应用化的核心价值就可能会被忽视,如同房间里的大象般显而易见却无人问津。

展望2025年,国产大模型已然超越了“百模大战”的喧嚣,正毅然迈向更深的探索领域。然而,一年之后,谁能在这场技术盛宴中稳坐牌桌,仍是一个充满变数的谜团。百度、阿里、字节,这三张显而易见的“明牌”,凭借其在算力、技术、数据三大硬指标上的全球领先地位,未来完全有潜力与GPT5一较高下。

与此同时,六小虎和DeepSeek等新兴势力虽来势汹汹,但Scaling Law的失灵以及对“AI领军者”光环的祛魅,或许将促使这些创业公司将精力聚焦于实际产生回报的商业化道路上,寻求与大厂差异化竞争的策略。

那么,2025年,AI应用将走向何方?被誉为AI应用元年的这一年,又有哪些方向值得我们满怀期待呢?

聚焦两大方向

据彭博社报道,OpenAI在其发展规划中,为通往人工智能通用智能(AGI)的道路设定了五个清晰阶段。从第一阶段的聊天机器人,到第二阶段的推理者,再到第三阶段的Agent——即能够采取行动的系统,OpenAI一步步稳步前行。去年9月,OpenAI宣布开发了一系列新的AI模型,这些模型在复杂的推理任务上取得了重大进步,代表了人工智能能力的新水平。因此,OpenAI将这一系列模型命名为OpenAIo1,标志着其已进入通向AGI目标的第二阶段。

随着这些模型准确度的不断提升,一个全新的产业方向正逐渐浮出水面:能够代替用户进行具体操作的Agent技术。这一技术的落地场景将遍布各类终端,智能助理将成为其中的佼佼者。想象一下,借助Apple Intelligence,Siri将能够在Apple和第三方应用内及跨应用执行数百项新操作,如轻松调出阅读列表中的文章或一键发送照片给朋友。这背后,需要模型具备强大的规划能力,能够准确调用第三方应用,并确保每一步操作的准确率都达到极致。

与此同时,OpenAI和谷歌DeepMind在multi agent研究领域的加速布局,也进一步预示着这一领域的研究和发展将迎来新的高潮。两家公司均在官方网站上发布了multi agent研究团队的招聘信息,吸引了众多科研人才的关注。

而另一大产业方向,则是自动驾驶技术的持续加速。特斯拉作为全球自动驾驶龙头,其FSD系统的每一次迭代都牵动着整个行业的神经。预计于2025年第一季度正式在中国与欧洲市场推出的FSD系统,将带来接管率的提升、真·智能召唤功能的推送以及Cybertruck自动泊车功能的实现等一系列改进。特斯拉的快速迭代,无疑将加速全行业的技术进步,推动自动驾驶技术迈向新的高度。

在国内,华为也发布了ADS 3.0系统,并在鸿蒙智行享界S9车型上首发。该系统采用了全新端到端架构和全场景全天候智能硬件感知系统,实现了全向防碰撞3.0的超全感知、超快响应、超前验证三大能力升级。同时,享界S9还首发了车位到车位的智驾功能,支持全场景贯通的智能驾驶体验。销量方面,鸿蒙智行连续蝉联30万元以上新能源车型月销第一,充分验证了其技术实力和市场接受度。

更令人振奋的是,据华为常务董事余承东透露,鸿蒙智行的“第四界”产品尊界已进入整车验证阶段,计划于年底下线,明年上半年上市。这一消息无疑为自动驾驶技术的发展注入了新的动力。

国盛证券认为AI应用应关注三大方向:

1)算力侧:寒武纪、中科曙光、海光信息、云赛智联、软通动力、中际旭创、新易盛、浪潮信息、工业富联、神州数码、协创数据、弘信电子、高新发展等。

2)端侧 AI:立讯精密、东山精密、传音控股、鹏鼎控股、中科创达、漫步者。

3)自动驾驶:华为智车:江淮汽车、赛力斯、长安汽车、北汽蓝谷等;国内自动驾驶产业链:德赛西威、万马科技、中科创达、经纬恒润、海天瑞声、金溢科技、万集科技、千方科技、鸿泉物联等;特斯拉产业链:特斯拉、世运电路、三花智控、拓普集团等。

AI应用下一个催化剂是什么?

基于OpenAI的《Scaling Laws for Neural Language Models》论文,我们了解到,语言建模性能会随着模型大小、数据集大小以及训练计算量的增加而平稳提升。为了达到最佳性能,这三个因素必须同时扩展,且当其中一个因素不受其他两个因素限制时,模型性能与每个因素之间呈现出幂律关系。这一思想促使大模型公司通过扩大预训练模型的规模、数据集大小和训练计算量来提升模型能力,这已成为当前的主流做法。

以Meta开源的Llama系列模型为例,其迭代历程和MMLU评测基准上的得分充分展示了这一趋势。Llama2基于2T token数据进行预训练,包含了7B、13B和70B三个参数规模的版本。而Llama3则在超过15T token的数据上进行了预训练,训练数据集比Llama2大了7倍,包含的代码量也是Llama2的4倍。因此,8B的Llama3在MMLU上的得分已经接近70B的Llama2,而70B的Llama3更是取得了80.9分的高分。进一步地,Llama3.1 405B模型在保持15T token训练数据量的同时,由于参数规模的扩大,在MMLU上的得分高达88.6分。

然而,幂律关系也意味着性能提升的边际回报会逐渐放缓,理论上需要指数级别的规模增长才能带来模型性能的线性提升。除了算力成本外,模型规模的扩大也带来了工程上的挑战。据《MegaScale: Scaling Large Language Model Training to More Than 10,000 GPUs》论文所述,大规模LLM训练面临两个具体挑战:一是实现大规模的高训练效率,即提高模型FLOP利用率(MFU),这直接转化为端到端的训练速度;二是实现大规模下的高训练稳定性,以保持整个训练过程中的高效训练。

同时,高质量训练数据的获取也是提升模型性能的关键难点。阿里研究院的《2024大模型训练数据白皮书》指出,高质量数据是大模型技术发展的主要瓶颈之一。能够拓展大模型知识边界、推动大模型推理和泛化能力提升的数据更多偏向于视频、图片等多模态数据以及特定行业中的领域知识数据。这些数据主要来源于人类的创造、制作和经验积累,其规模、类型和质量因客观条件而异。

此外,o1模型的强大推理能力得益于强化学习和思维链推理。OpenAI文档显示,o1通过强化学习训练可以执行复杂的推理,它在回答用户问题前会进行长时间的“思考”,产生长的内部思维链。这种过程极大地提高了模型的推理能力。o1模型还引入了推理token,用于分解对提示的理解并考虑多种生成响应的方法。然而,o1目前主要在数学、编程等领域表现出色,其在其他领域的应用尚有待探索。同时,o1的推理速度相对较慢,可能对某些需要快速响应的应用场景造成限制。此外,调用o1系列模型API的成本也相对较高。

尽管如此,o1模型的成功仍然验证了提升模型能力的新方向。其技术思路可能被业界其他大模型效仿,成为在预训练模型规模提升边际回报放缓情况下的重要技术范式。目前,预训练阶段的Scaling Law仍然有效,GPT MoE的参数量已达到1.8万亿。因此,我们期待OpenAI的下一代模型GPT-5的发布。模型准确度是AI应用落地的关键指标,如果GPT-5能够通过进一步扩大模型参数量和训练数据规模,在各项任务上取得准确度的大幅提升,那么AI应用的创新将迎来全面爆发。

微信
扫描二维码
关注
证券之星微信
APP下载
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-