打開(kāi)網(wǎng)易新聞 查看精彩圖片

今天凌晨,阿里云正式發(fā)布了Qwen3系列,一口氣開(kāi)源了從0.6B到235B共8款模型:2個(gè)MoE大模型和6個(gè)Dense大模型,構(gòu)成了阿里完整的模型矩陣。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

這次Qwen3的開(kāi)源重塑了大模型標(biāo)準(zhǔn),可以說(shuō)在“后DeepSeek R1”時(shí)代,以阿里為代表的國(guó)內(nèi)大廠,正在借助產(chǎn)品化思維,以性價(jià)比和多模態(tài)能力全方位搶奪DeepSeek的市場(chǎng)影響力。

01

Qwen3再一次拉高了世界開(kāi)源標(biāo)準(zhǔn)

這回阿里云開(kāi)源的Qwen3,在架構(gòu)、性能、推理速度和應(yīng)用方向上均有較大創(chuàng)新和提升。Qwen3系列在模型架構(gòu)上采用了MoE(混合專(zhuān)家)架構(gòu)。

旗艦?zāi)P?Qwen3-235B-A22B 擁有約2350億的總參數(shù)量,在每次推理時(shí)僅僅激活約220億參數(shù),性能極其耐打,在綜合能力、代碼與數(shù)學(xué)、多語(yǔ)言能力、知識(shí)與推理等多項(xiàng)基準(zhǔn)測(cè)試中,都能與DeepSeek R1、OpenAI o1、o3-mini、Grok 3和谷歌Gemini 2.5 Pro等目前市場(chǎng)上的主流大模型相抗衡。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

一個(gè)亮點(diǎn)是:Qwen3-4B模型憑借極低的參數(shù)量,在一系列基準(zhǔn)測(cè)試中與GPT-4o(2024-11-20版本)打了個(gè)有來(lái)有回。這體現(xiàn)了阿里在推理效率上的提升并非以犧牲能力為代價(jià)。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

其輕量化模型Qwen3-30B-A3B和32B,在許多任務(wù)上的表現(xiàn)也足夠令人滿意。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

除了基準(zhǔn)測(cè)試上亮眼的表現(xiàn)外,Qwen3系列這回的一個(gè)主要?jiǎng)?chuàng)新特點(diǎn)是:混合思考模式。這種設(shè)計(jì)讓用戶能根據(jù)任務(wù)難度控制模型的推理量:思考模式下,模型能夠逐步推理,適合復(fù)雜問(wèn)題,強(qiáng)調(diào)深度思考。無(wú)思考模式:模型快速響應(yīng),適合簡(jiǎn)單問(wèn)題,優(yōu)先速度。難問(wèn)題用更多推理,簡(jiǎn)單問(wèn)題快速解答。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

并且,Qwen3為了在國(guó)際應(yīng)用端擴(kuò)展影響力,已經(jīng)能夠支持119種語(yǔ)言和方言。外網(wǎng)的各國(guó)網(wǎng)友對(duì)其的評(píng)價(jià)都很不錯(cuò),橫向?qū)Ρ鹊脑挘琎wen3已經(jīng)追上或者超越了OpenAI o1、谷歌Gemini 2.5 Pro。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

Qwen3還針對(duì)最近半年爆火的“AI智能體”概念做出了優(yōu)化,強(qiáng)調(diào)了“智能體”能力。比如它們強(qiáng)化了Qwen3 模型的編碼和代理能力,并增強(qiáng)了對(duì) MCP 的支持,讓Qwen3 學(xué)會(huì)如何思考以及如何與環(huán)境交互。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

在預(yù)訓(xùn)練方面,Qwen3 的數(shù)據(jù)集相比 Qwen2.5 幾乎翻了一倍,達(dá)到了3.6萬(wàn)億個(gè)token,覆蓋了更廣泛的領(lǐng)域知識(shí)和語(yǔ)境,再度提升了在復(fù)雜任務(wù)處理和多語(yǔ)言場(chǎng)景中的表現(xiàn)。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

這回Qwen3系列的開(kāi)源,統(tǒng)一采用Apache 2.0開(kāi)源協(xié)議開(kāi)放權(quán)重。通過(guò)“小杯-中杯-大杯-超大杯”的產(chǎn)品邏輯構(gòu)建了一個(gè)完整的“Qwen宇宙”

綜合來(lái)看,Qwen3 在單純的技術(shù)性能、成本價(jià)格、工具調(diào)用和MCP調(diào)用等所有方面獲得了全面的提升,其已經(jīng)將開(kāi)源世界的標(biāo)準(zhǔn)提升了一個(gè)層次。

02

DeepSeek光環(huán)下的大廠百態(tài)

4月25日的2025百度AI開(kāi)發(fā)者大會(huì)上,百度創(chuàng)始人李彥宏點(diǎn)名批評(píng)DeepSeek“不是萬(wàn)能的,它只能處理單一的文本,不能理解聲音、圖片、視頻等多模態(tài)內(nèi)容。更大的問(wèn)題是慢和貴,中國(guó)市場(chǎng)上絕大多數(shù)大模型API的價(jià)格都更低,而且反應(yīng)速度更快?!?/p>

他點(diǎn)出了DeepSeek龐大光環(huán)下,中國(guó)的大廠正在走向用性價(jià)比抗衡DeepSeek的現(xiàn)狀:用更小參數(shù),更低成本的方式,實(shí)現(xiàn)更快的響應(yīng),完成不屬于DeepSeek的多模態(tài)效果。

阿里的Qwen3迅速引入MoE架構(gòu)和雙模式推理設(shè)計(jì),將龐大模型在實(shí)際使用中的成本大幅降低。憑借DeepSeek R1三分之一的參數(shù)量,性能全面超越R1。

首先,Qwen3的MoE架構(gòu)使得推理過(guò)程中僅激活部分專(zhuān)家,從而降低了實(shí)際計(jì)算開(kāi)銷(xiāo)。例如,Qwen3-235B-A22B雖然總參數(shù)達(dá)235B,但每個(gè)token只需計(jì)算其中約9%(22B)的參數(shù)。這意味著在相近硬件條件下,其推理延遲并不像參數(shù)規(guī)??瓷先ツ菢痈卟豢膳?。

其次,Qwen3的雙模式推理設(shè)計(jì)高效地分配算力。在“非思考模式”下,模型可直接生成答案,實(shí)現(xiàn)接近即時(shí)的響應(yīng);而在需要“思考模式”時(shí),才投入額外計(jì)算資源進(jìn)行多步推理。這種按需分配計(jì)算的策略,使模型在大部分簡(jiǎn)單交互中保持了快速性,又能在關(guān)鍵時(shí)刻發(fā)揮深度推理能力。

這其實(shí)與騰訊的雙軌思路相似。2025年2月13日,騰訊元寶接入DeepSeek R1滿血版,幾天之后就上線了 “強(qiáng)推理深度思考模型”混元T1模型,隨即混元團(tuán)隊(duì)官宣Turbo S模型上線測(cè)試,號(hào)稱在響應(yīng)速度上比DeepSeek R1更快。Turbo模型針對(duì)日常對(duì)話進(jìn)行優(yōu)化,弱化長(zhǎng)鏈推理而追求即時(shí)回答能力。騰訊內(nèi)部的AI助手“元寶”應(yīng)用中,就集成了Turbo快思考和T1深思考兩種模型,允許用戶在需要詳細(xì)推理時(shí)調(diào)用T1,平時(shí)默認(rèn)用Turbo即時(shí)回答。

這種雙軌策略,與阿里Qwen3單模型雙模式有異曲同工之妙,都是為不同復(fù)雜度的問(wèn)題提供差異化模型,既保證效果又保證速度。

DeepSeek R1自從正式上線以來(lái),其幻覺(jué)現(xiàn)象頻發(fā)就成為了各大廠商瞄準(zhǔn)的攻堅(jiān)對(duì)象。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

百度就是其中的代表。百度在國(guó)內(nèi)大模型競(jìng)爭(zhēng)中經(jīng)歷了一個(gè)明顯的策略轉(zhuǎn)折:從最初堅(jiān)持閉源、尋求商業(yè)變現(xiàn),到在DeepSeek等沖擊下宣布開(kāi)源、全面免費(fèi)的重大轉(zhuǎn)向。

2025年3月16日,百度如期發(fā)布了文心大模型4.5。文心4.5被定義為百度首個(gè)“原生多模態(tài)”大模型,具備圖像、文本、音頻等多模態(tài)聯(lián)合理解與生成能力。它引入了深度思考能力,能夠進(jìn)行復(fù)雜問(wèn)題的逐步推理,并集成了百度自研的iRAG檢索增強(qiáng)技術(shù)。

通過(guò)“深度搜索”功能,文心4.5可以自動(dòng)檢索外部知識(shí)以回答用戶問(wèn)題,顯著降低了幻覺(jué)率,這也是百度迎戰(zhàn)DeepSeek的底氣所在。

在價(jià)格方面,百度也正在開(kāi)始加碼。前幾天的百度AI開(kāi)發(fā)者大會(huì)上發(fā)布的文心4.5Turbo,相比于文心4.5價(jià)格下降80%,每百萬(wàn)token的輸入輸出價(jià)格僅為DeepSeek V3的40%。DeepSeek的成本優(yōu)勢(shì)正在大廠們的面前蕩然無(wú)存。

字節(jié)跳動(dòng)為了應(yīng)對(duì)DeepSeek的競(jìng)爭(zhēng),則將自身的產(chǎn)品重心放在了多模態(tài)上。從旗下火山引擎團(tuán)隊(duì)于2024年5月首次對(duì)外全面介紹了代號(hào)“豆包”的大模型家族,一口氣亮相了9個(gè)模型開(kāi)始,豆包就著重多模態(tài)模型上的發(fā)展。

與其他廠商喜歡強(qiáng)調(diào)模型參數(shù)和基準(zhǔn)測(cè)試成績(jī)不同,字節(jié)刻意淡化參數(shù)規(guī)模與榜單,轉(zhuǎn)而突出實(shí)際落地效果和低使用門(mén)檻,力求讓大模型真正融入多樣化的實(shí)際場(chǎng)景。

本月中旬,豆包1.5深度思考模型上線,除了在數(shù)學(xué)推理、編程競(jìng)賽、科學(xué)推理等專(zhuān)業(yè)領(lǐng)域上表現(xiàn)超越DeepSeek R1之外,最大的亮點(diǎn)是Doubao-1.5-thinking-pro-vision具備了視覺(jué)推理理解能力,同時(shí)豆包文生圖模型3.0版本發(fā)布,進(jìn)一步豐富了多模態(tài)生態(tài)。

字節(jié)跳動(dòng)的多模態(tài)戰(zhàn)略背后,是敏銳感知到了大模型從技術(shù)概念轉(zhuǎn)向產(chǎn)品概念的路徑。后DeepSeek R1時(shí)代里,單純追求參數(shù)規(guī)模和技術(shù)指標(biāo)的提升已不足以構(gòu)建產(chǎn)品護(hù)城河了。

字節(jié)跳動(dòng)帶著這家宇宙大廠的“互聯(lián)網(wǎng)基因”,加入了大模型競(jìng)爭(zhēng)。多模型并進(jìn)確保了其在文本、語(yǔ)音、圖像各方面全面開(kāi)花;極低價(jià)格和廣泛產(chǎn)品植入為其贏得了規(guī)模和數(shù)據(jù)。

總的來(lái)看,除了單純的專(zhuān)業(yè)領(lǐng)域的基準(zhǔn)測(cè)試刷分之外,價(jià)格、響應(yīng)、多模態(tài)都已經(jīng)成了各大廠商應(yīng)對(duì)DeepSeek競(jìng)爭(zhēng)的有力武器。當(dāng)基礎(chǔ)語(yǔ)言對(duì)話能力很難拉開(kāi)差距時(shí),各大廠用產(chǎn)品思維找到了迅速突圍DeepSeek的差異化功能。

03

開(kāi)源生態(tài)的長(zhǎng)短期利益結(jié)合

隨著DeepSeek、Llama、Qwen、智譜在開(kāi)源生態(tài)構(gòu)建上付出了越來(lái)越多的努力,開(kāi)源已經(jīng)成為主流路線之一。過(guò)去大廠傾向于閉源謀利,而如今開(kāi)源被證明是贏得生態(tài)和快速迭代的有效途徑。DeepSeek進(jìn)一步刺激了大廠擁抱開(kāi)源生態(tài)的決心,阿里全面開(kāi)源千問(wèn)證明了 “模型開(kāi)源是AI時(shí)代的主題”。

不難看出,國(guó)內(nèi)大模型正走向一個(gè)比拼綜合實(shí)力和效率的時(shí)代,而不再僅以參數(shù)和單點(diǎn)性能論英雄。

Qwen3、DeepSeek以及騰訊、百度、字節(jié)的各種“模型”迭代實(shí)踐,折射出了一種轉(zhuǎn)變:大家都在追求更高的性價(jià)比——既要性能足夠好,又要成本足夠低、應(yīng)用足夠廣。

可以說(shuō),我們正在進(jìn)入AI的下半場(chǎng)。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

OpenAI的研究員姚順雨前段時(shí)間曾發(fā)長(zhǎng)文,探討AI的下半場(chǎng)該專(zhuān)注于哪里:“從現(xiàn)在開(kāi)始,AI將從解決問(wèn)題轉(zhuǎn)向定義問(wèn)題。為了在‘下半場(chǎng)’蓬勃發(fā)展,人們需要及時(shí)轉(zhuǎn)變思維方式和技能,更接近產(chǎn)品經(jīng)理的水平?!?/p>

根據(jù)晚點(diǎn)訪談,阿里云CTO、通義實(shí)驗(yàn)室負(fù)責(zé)人周靖人對(duì)于開(kāi)源大模型的戰(zhàn)略意義:首先,模型作為核心生產(chǎn)要素,開(kāi)源能加速其普及,推動(dòng)產(chǎn)業(yè)快速發(fā)展;其次,開(kāi)源已成為大模型創(chuàng)新的重要驅(qū)動(dòng)力。

可以預(yù)見(jiàn)的是:國(guó)內(nèi)大模型的落地方向?qū)⒏淤N近實(shí)際應(yīng)用,不再只是實(shí)驗(yàn)室里的模型比拼。這也給開(kāi)源大模型的參數(shù)效率、推理成本提供了一個(gè)更加激烈的競(jìng)爭(zhēng)區(qū)域。