首页 - 股票 - 公司新闻 - 正文

给阿里千问一个“客观估计”——围绕QWen3的大模型横评

来源:阿尔法工场 2025-11-20 10:23:04
关注证券之星官方微博:

(原标题:给阿里千问一个“客观估计”——围绕QWen3的大模型横评)

导语:Qwen3 旗舰模型已进入全球第一梯队、国内Top 2–3的行列:综合能力略低于Gemini3、GPT-5.1和Kimi K2 Thinking,但与Grok 4.1、Claude Opus 4.1属于同档。

阿里近期发布的千问App引发了外界的关注,其背后的Qwen3大模型与国际和国内几大模型的性能对比,到底水平如何?对用户来说又该如何根据不同的任务来选择不同的大模型?今天给大家做个对比与总结。

Qwen3的基本面

阿里在年推出的第三代大模型Qwen3,是千问App的核心底座。它有几个关键特点:

一、体量和架构

Dense模型:从0.6B一直到32B;

MoE旗舰:Qwen3-235B-A22B235B 总参数、22B 活跃参数),相当于参数巨舰+算力省电”。

二、训练规模

训练数据约36万亿token,覆盖119种语言/方言对数学、代码、STEM推理做了额外强化。提供Thinking 模式,类似GPT-o1 / DeepSeek-R1那种显式推理版。

三、应用形态

包括文本对话、写作、代码、多模态(图像/文档/表格),长上下文版本能支持百万级token,对长文档场景很友好。

千问App由于面向C端,通常会使用类似Qwen3-Max / Qwen3-235B旗舰+ Thinking的组合。

拿什么尺子来衡量Qwen3?

使用如下指标来测评Qwen3的水平:

Artificial Analysis Intelligence IndexAA 指数)

AA指数把MMLU-ProGPQAHLELiveCodeBenchSciCode 等十几个高含金量基准融合,

最后给每个模型一个0–100 的综合智能分。这个分数目前是国际上最常被引用的大模型总评分之一。

LMArena / Text Arena(人类盲评Elo榜)

采用大量真实用户不看模型名,只看回答,投票哪一个更好的方法,用Elo评分来排名,更偏真实使用体验的维度。

除此以外,还会使用一些单项基准来进行评测

AIME2025:竞赛级数学;HLEHumanitys Last Exam):极难综合考试;LiveCodeBench/SciCode:偏实战的软件工程与科学代码;以及其它经典的MMLUGSM8KHumanEval 

本次评测主要围绕AA+人类盲评榜,再辅以少量专项基准,尽量做到客观公正。

进入“顶级区”,但天花板依旧。

AA指数:按目前公开信息,各主流大模型的AA指数得分可以见下表

注:AA《State of AI: China Q2 2025》里被列为“最佳非推理 LLM”之一,分数带星号表示部分基于厂商数据估计

以上得分Qwen3的旗舰版本已经站在Grok 4.1Claude 4.1的身边,但和Gemini3 ProGPT-5.1K2 Thinking之间,还维持着7–10分左右的差距——这在顶尖模型之间,依然是能感知的差距。

人类盲评Elo榜:评测结果是Gemini3 ProGrok4.1(Thinking)轮流占据榜首附近。GPT-5.1Claude 4家族也稳居头部。Qwen3旗舰的打分虽然略低于这些榜一大哥,但确实已经混在第一梯队前列,和它们同一张榜单抢票。

更直观的表述是:真正让海外开发者和研究者投票时,用户已经可以感受到:Qwen3是强模型,和GPT-5 / Gemini3这一线对比,体验上不会拉开巨大差距。

再看几个单项评测

AIME 2025:竞赛数学

测试结果大致排序是:GPT-5 Codex (high) ≈ GPT-5.1 > Kimi K2 Thinking > Grok 4 > Qwen3 235B > Gemini 2.5 / Claude 4 系列。

可以理解为,Qwen3在高难数学上是第一梯队,只是在竞赛数学+推理特化的场景中,GPT-5.1 / K2 / Grok 4这些卷数学的怪物更强。

HLE:超难综合推理

在这个测试中,Kimi K2 ThinkingGPT-5家族在HLE里表现最扎眼。Qwen3GPT-4.1/Grok-3/Gemini-2.5 Pro这一代差不多,略有提升。测试结果意味着,Qwen3在极限综合推理上没拉胯,但也不是拿第一的那个。

LiveCodeBench / SciCode:工程代码&科学代码

在工程代码方面,GPT-5.1?K2 Thinking? Grok4≈Gemini2.5Pro> Qwen3DeepSeek-V3.2。在科学代码(SciCode测试中,差距更缩小,大家都在40%多一点的区间里挤。

也就是说,如果你用千问写代码,它的水平大致就是略弱一点的GPT-5.1 / K2 / Grok4”,但绝不是上一代那种明显掉队。

中国四强对比

KimiQwen3DeepSeek豆包

Kimi K2 Thinking的综合智能得分约67分,在AA榜上直接冲进全球前五,由于模型专门强调浏览、工具调用、Agent任务,所以在HLEBrowseComp等偏代理的基准上特别强。

Qwen3的综合智能得分60 分左右,各方面比较均衡。DeepSeek-V3.2-Exp的综合智能约57分,特点是国产芯片适配、长上下文性能、推理能效方面做了优化,为中国算力环境量身定制。

豆包1.5 Pro(非推理版),AA China Q2 报告中给出的智能指数约 48*,在非推理模型里属于头部,且被列为最佳非推理大模型之一;但其推理版(Thinking)目前还没有完整的AA综合分公开。

综合分数上:K2 Thinking > Qwen3 > DeepSeek-V3.2 >豆包1.5Pro。但如果从算力成本+国产芯片环境出发,DeepSeek就有独特位置,而Qwen3则在生态+稳健通用能力上更加均衡。

用户的视角

日常问答、写作与知识检索

对中文/中英混合的日常用法来说,Qwen3 + 千问App 基本已经是世界级的体验之一。回答速度、知识覆盖、上下文记忆、写作风格都很成熟。GPT-5.1 / Gemini 3 Pro相比,差距主要在极限长链推理和一些特定专业英文领域。豆包则在自然中文表达、口语化对话、社交媒体语境下的风格更自然,适合做聊天、轻量问答和内容创作。

数学&竞赛级题目

如果用户的使用场景是:竞赛数学、高级逻辑题、极端复杂链式推理等GPT-5.1Gemini 3 ProKimi K2 ThinkingGrok 4.1 目前仍然略强。

代码开发

Qwen3 LiveCodeBench / SciCode 这类基准上的表现,已经是工程可用的一线水平。真正大规模做代码重构、复杂调试时,GPT-5.1K2 ThinkingGrok4在一些数据里略有优势,但Qwen3+好的工具链(IDE插件、CI集成)足以支撑绝大多数团队的日常开发工作。

多模态、文档和表格

这一块是Qwen家族的强项之一:Qwen2.5-VLQwen3-Omni在图像理解、PDF/文档解析、表格/图表任务上,经常在论文和评测里拿高分。对用户来说意味着你把PPTPDF、扫描件、复杂报表丢给千问,它一般能看得比较明白。

#AI #大模型 #阿里巴巴 #千问

微信
扫描二维码
关注
证券之星微信
APP下载
广告
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-