
4月29日凌晨,阿里巴巴開源新一代通義千問模型Qwen3(簡稱千問3),參數(shù)量僅為DeepSeek-R1的1/3,成本大幅下降,性能全面超越R1、OpenAI-o1等領(lǐng)先模型,登頂全球最強(qiáng)開源模型。
千問3是國內(nèi)首個(gè)“混合推理模型”,將“快思考”與“慢思考”集成進(jìn)同一個(gè)模型,大大節(jié)省算力消耗。
根據(jù)官方的說法,千問3的旗艦版本 Qwen3-235B-A22B,在代碼、數(shù)學(xué)、通用能力等基準(zhǔn)測(cè)試中,達(dá)到了與 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 同一梯度的水平。
在奧數(shù)水平的 AIME25 測(cè)評(píng)中,Qwen3-235B-A22B 斬獲 81.5 分,刷新了開源模型的紀(jì)錄;在考察代碼能力的 LiveCodeBench 評(píng)測(cè)中,Qwen3-235B-A22B 突破 70 分,表現(xiàn)甚至超過 Grok 3;在評(píng)估模型人類偏好對(duì)齊的 ArenaHard 測(cè)評(píng)中,Qwen3-235B-A22B 以 95.6 分超越 OpenAI-o1 及 DeepSeek-R1。

在相同計(jì)算資源下,千問3模型以更小的規(guī)模實(shí)現(xiàn)了對(duì)更大體量上一代模型的超越,真正做到了“小而強(qiáng)大”。
千問3總參數(shù)量235B,刷新了開源模型的智能水平新高,阿里稱僅需4張H20即可部署千問3滿血版,顯存占用僅為性能相近模型的三分之一。
千問3模型版本包含2款30B、235B的MoE模型,以及0.6B、1.7B、4B、8B、14B、32B等6款密集模型。

同時(shí),千問3為即將到來的智能體Agent和大模型應(yīng)用爆發(fā)提供了更好的支持。在評(píng)估模型Agent能力的BFCL評(píng)測(cè)中,千問3創(chuàng)下70.8的新高,超越Gemini2.5-Pro、OpenAI-o1等頂尖模型,將大幅降低Agent調(diào)用工具的門檻。
據(jù)悉,千問3系列模型依舊采用寬松的Apache2.0協(xié)議開源,并首次支持119多種語言,全球開發(fā)者、研究機(jī)構(gòu)和企業(yè)均可免費(fèi)在魔搭社區(qū)、HuggingFace等平臺(tái)下載模型并商用,也可以通過阿里云百煉調(diào)用千問3的API服務(wù)。個(gè)人用戶可立即通過通義APP直接體驗(yàn)千問3,夸克也即將全線接入千問3。
目前,阿里通義已開源200余個(gè)模型,全球下載量超3億次,千問衍生模型數(shù)超10萬個(gè),已超越美國Llama,成為全球第一開源模型。
本文系觀察者網(wǎng)獨(dú)家稿件,未經(jīng)授權(quán),不得轉(zhuǎn)載。
熱門跟貼