首页 - 股票 - 证券要闻 - 正文

剑指AI算力霸主英伟达 Cerebras发布自研超算训练的开源大模型

来源:财联社 作者:史正丞 2023-03-29 00:57:00
关注证券之星官方微博:

(原标题:剑指AI算力霸主英伟达 Cerebras发布自研超算训练的开源大模型)

财联社3月29日讯(编辑 史正丞)当地时间周二,硅谷AI芯片公司Cerebras Systems发布7款类似于GPT的大语言模型。除了发布开源大模型外,展现了一条不用英伟达GPU、不接OpenAI接口也能实现“大模型自由”的道路

(来源:公司官网)

单纯从数据来看,这次Cerebras发布的7个大模型参数量介于1.11亿至130亿之间。作为对比,谷歌的多模态视觉语言模型PaLM-E具有5620亿个参数;同样在本月发布的GPT-4模型虽然尚未公布确切数据,但有媒体援引内部人士透露,参数量大约是GPT-3(1750亿)的6倍。

按照目前人类对AI的认知,模型越大,最终能够满足的需求就更加复杂。当然,规模较小的模型也有自己的用武之地,例如可以配置在手机、智能音箱中。同时也有研究显示,规模较小的模型如果经过多次训练,准确率反倒能变得更高。

但如同上文所述,Cerebras本身是一家芯片公司,所以训练模型用的是自家的Andromeda AI超级计算机,其中部署了16套CS-2系统。非常具有记忆点的是,Cerebras生产的AI芯片WSE-2的尺寸约为英伟达A100芯片的56倍,核心数量达到85万个,同样是A100芯片的123倍。这块芯片使用的是台积电7nm工艺,售价超过200万美元。

(来源:Cerebras芯片)

所以周二发布的多款模型,本身也是Cerebras向AI算力霸主英伟达发出的战书。在OpenAI的ChatGPT点燃全球科创圈子的热情后,虽然有许多芯片公司试图撬动英伟达牢牢占据的市场,但取得实际成果的并不多。许多知名企业,也通过直接用英伟达的全套服务来训练自家的AI产品,从而快速取得成绩。

面向潜在的客户,Cerebras也强调自己的芯片具有训练时间短、同等预算下准确率高等优点,是目前世界上已经公开的大模型中生产性价比最高的方案。公司CEO Andrew Feldman也确认,使用Cerebras训练出来的模型,未来也能在英伟达的系统中继续训练和定制化。

多少有些嘲讽OpenAI发布GPT-4后不再开源的做法,Cerebras也在周二宣布公司训练出来的7个大模型全部在Apache-2.0许可的条件下向研究社区开放,包括模型本身、训练算法和权重,以此打造行业开源的标杆。

Cerebras表示,任何人只需要向这些高度精准的预训练模型输入一定数量的数据,就能以很少的工作量,开发出功能强大垂直行业应用程序。

微信
扫描二维码
关注
证券之星微信
APP下载
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-