首页 - 股票 - 行业聚焦 - 金融 - 正文

中关村论坛|专访中科院曾毅:不应使用人工智能代替人类决策

来源:红星资本局 媒体 2025-03-28 19:55:54
关注证券之星官方微博:

(原标题:中关村论坛|专访中科院曾毅:不应使用人工智能代替人类决策)

在使用AI工具时经常会出现这样一种情况:AI的回答看似有逻辑性,但并不完全准确。这是否意味着我们对人工智能的期待有些过高?

今日,在2025中关村论坛年会期间,中国科学院自动化研究所研究员、人工智能安全与超级对齐北京市重点实验室主任、联合国人工智能顾问机构专家曾毅接受了红星资本局的专访,探讨了人们是否该信任AI的问题。

主办方供图

曾毅表示,现在的人工智能大模型是一个看似智能的信息处理工具,但实际还只是一个统计模型,它还不会非常有效地进行大规模知识的验证、合理性的推理,所以仍然会犯很多人不会犯的错误。

“它从大规模的数据当中去学习一些具有统计显著性的表达,但是由于机制缺陷生成的内容很多人不会犯类似错误,特别是大家熟知的大模型幻觉问题,也就是大家常说的‘一本正经的胡说八道’,这些都是人类不会犯的错误。”

但曾毅认为,近期人工智能推理能力的发展,已经为解决人工智能幻觉等问题提供了一个机遇,不过仍有两类问题值得重点关注:一是互联网上已有很多的幻觉信息存在如何应对,另一个是有很多的人工智能构造的虚假信息产生,这两点在未来都需要用人工智能的技术去鉴别。

曾毅指出,如果构造虚假信息的人工智能被滥用和恶用是“魔高一尺”,未来就一定要发展人工智能的技术去解决,使得向善的人工智能“道高一丈”。

“作为工具的人工智能,没有人能够确保它不犯错误。”曾毅认为,令人欣慰的是,现在人工智能的发展每一天都在变好,有了更可靠的数据和更强大的推理模型,慢慢的从一个信息处理工具,向自动化的理解去发展。重要的是,不管人工智能发展到哪一天,都要去给它构建伦理安全的护栏,使得人工智能的输出,尽可能不要对人类社会产生负面影响。

“没有绝对安全的人工智能,但是安全的人工智能应当作为其发展的第一性原理,不能被删除,也不能被违背。”曾毅强调,发展人工智能的过程当中,我们要有安全意识,要“以技制技”,即用人工智能技术去解决人工智能的安全隐患。只要人工智能技术在社会上的应用存在,就需要用人工智能与人类协同治理人工智能的生态。

“我们永远不应该完全依赖人工智能,所以不应当使用人工智能代替人类决策,人类也不应该对人工智能的输出毫不辨别的去采用。”曾毅说。

红星新闻记者 王田

编辑 肖世清

微信
扫描二维码
关注
证券之星微信
APP下载
相关股票:
好投资评级:
好价格评级:
证券之星估值分析提示中 关 村盈利能力较差,未来营收成长性较差。综合基本面各维度看,股价偏高。 更多>>
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-