打開網(wǎng)易新聞 查看精彩圖片

騰訊元寶打定了抱緊DeepSeek大腿不松手的主意。

就在3月26日,元寶迎來重大更新,再次趕在第一時(shí)間接入DeepSeek V3的“小版本更新”版本V3-3024,與此同時(shí),元寶還同步接入了自研的混元T1正式版。

對DeepSeek的緊緊跟進(jìn),是因?yàn)樵獙氄谇星袑?shí)實(shí)享受到這一策略帶來的好處。在今年年初的民企座談會(huì)上,馬化騰和梁文鋒做了回“同桌”,并排而坐。在那4天之前,2月13日,騰訊元寶宣布接入DeepSeek。

沒有人想到,騰訊此舉讓元寶像坐上火箭,扶搖直上三千里,一度登上蘋果應(yīng)用商店中國區(qū)免費(fèi)榜榜首。前不久的財(cái)報(bào)會(huì)上,騰訊總裁劉熾平透露元寶的日活激增超過20倍。

打開網(wǎng)易新聞 查看精彩圖片

自此之后,“自研+開源”的融合模式成為騰訊最新的AI策略,即通過與自身豐富產(chǎn)品生態(tài)的融合,也通過不同模型之間的協(xié)同互補(bǔ),達(dá)成用戶側(cè)的體驗(yàn)提升。

另一方面,從這次V3更新和混元T1正式版的上線,能看出來另一種“融合”的趨勢,那就是推理模型和通用模型的互相靠近。

未來究竟是屬于通用模型的,還是推理模型的,亦或是其他黑馬?這也許根本就是一個(gè)偽命題。

當(dāng)你有輪子的時(shí)候,不必兩條腿走路。

DeepSeek將在掀起全球“推理熱”之后,再度掀起“融合”熱嗎?

01

勤奮的元寶

不得不說,元寶跟得太緊了。

DeepSeek在3月24日晚上突然上新V3的“小版本更新“,也就是V3-0324。

到了3月26日,元寶就已經(jīng)接入了V3-0324,并且還同步接入了騰訊自研的混元T1。一個(gè)非推理模型,一個(gè)推理模型;一個(gè)外部模型,一個(gè)自研模型。元寶算是把組合玩明白了。

V3這次的更新說是“小版本更新”,悄無聲息地突然在開源平臺(tái)Hugging Face上線,其實(shí)是來了個(gè)大的,升級(jí)幅度并不小。朋友說“隨便吃點(diǎn)”,你以為是速凍餃子,其實(shí)端上來個(gè)毛血旺。

打開網(wǎng)易新聞 查看精彩圖片

根據(jù)DeepSeek的官方技術(shù)報(bào)告,V3-0324在數(shù)學(xué)、百科知識(shí)、代碼任務(wù)上表現(xiàn)都優(yōu)于前代,尤其是在數(shù)學(xué)和代碼類評(píng)測集上得分超過OpenAI的GPT-4.5和Anthropic的Claude-Sonnet-3.7。

最有意思的是,V3-0324雖然不是推理模型,但是有R1的味道。官方技術(shù)報(bào)告里點(diǎn)出的四大亮點(diǎn)“推理能力”“前端開發(fā)能力”“中文協(xié)作能力”“中文搜索”都落在了R1的優(yōu)勢范圍內(nèi)。

打開網(wǎng)易新聞 查看精彩圖片

在實(shí)際測試中,V3-0324也比舊版本更傾向于輸出更多文本。比如測試一個(gè)簡單的指令“寫一篇你自己的散文”,V3給出的有科技浪漫感的文本可以說是“很R1”了。

打開網(wǎng)易新聞 查看精彩圖片

DeepSeek也在報(bào)告中透露,V3-0324和之前的V3使用的base模型相通,改進(jìn)了后訓(xùn)練方法,并借鑒了R1推理模型訓(xùn)練過程中的強(qiáng)化學(xué)習(xí)技術(shù)。

從前推理模型和非推理模型在使用時(shí),用戶很明顯的一個(gè)取舍是,非推理模型響應(yīng)快,但精細(xì)和準(zhǔn)確度上弱一些,推理模型則往往“思考”得更深入,還會(huì)給出詳細(xì)的思維鏈,返回的結(jié)果更精確詳細(xì),但響應(yīng)速度上比較慢。

但DeepSeek似乎正在往“中間”走。

騰訊新推出的混元T1模型也有這樣的特點(diǎn)。元寶在26日同步接入了DeepSeek的V3-0324和自研的混元T1。

T1是推理模型,但是響應(yīng)速度更快。

這是因?yàn)樵诩軜?gòu)上,混元T1就舍棄了全Transformer,而是沿用混元Turbo S的模型架構(gòu),采用Hybrid-Mamba-Transformer。

打開網(wǎng)易新聞 查看精彩圖片

Transformer架構(gòu)擅長捕捉復(fù)雜上下文,而Mamba特長在高效處理長序列。兩相結(jié)合,模型在快與慢之間尋找平衡。

我們用經(jīng)典的“雞兔同籠”題分別向DeepSeek R1和混元T1提問,在關(guān)閉“聯(lián)網(wǎng)搜索”的情況下,二者最終給出的答案無誤,R1思考用時(shí)28秒,T1僅用14秒。

在MMLU-pro、CEval、AIME、Zebra Logic等中英文知識(shí)、競賽級(jí)數(shù)學(xué),以及邏輯推理公開基準(zhǔn)測試中,混元T1的得分比肩DeepSeek R1和OpenAI的o1(均為推理模型)。

值得注意的是,混元T1每百萬tokens 輸出價(jià)格4元,這是DeepSeek R1標(biāo)準(zhǔn)時(shí)段輸出價(jià)格的四分之一,與其優(yōu)惠時(shí)段價(jià)格持平。

這樣看來,騰訊不僅是在元寶接入模型的速度上看跟得緊,從模型的路線和價(jià)格上也是。

比亞迪對“高階智駕”進(jìn)行了重新定義。

02

追隨策略的勝利

來得早不如來得巧妙,短短一個(gè)月時(shí)間,元寶支棱起來了。

3月19日,騰訊總裁劉熾平在2024年年報(bào)電話會(huì)上提到了元寶的表現(xiàn),2月到3月日活激增超過20倍,成為中國第三高的AI原生移動(dòng)應(yīng)用程序。

騰訊元寶去年5月30日發(fā)布,初期定位是集成騰訊混元大模型的智能助手,但是反響平平。1月DeepSeek的R1模型全球大火,次月騰訊就宣布將DeepSeek-R1滿血版接入元寶,由此元寶也迎來了轉(zhuǎn)折點(diǎn)。

在那之后,元寶高強(qiáng)度“日更”,35天里版本更新30次。用戶也不斷涌入,元寶一度登頂蘋果中國區(qū)應(yīng)用商店免費(fèi)榜,超越DeepSeek。

不僅是元寶,騰訊在AI領(lǐng)域的發(fā)力突然按下加速鍵。其旗下核心應(yīng)用如微信、QQ瀏覽器、QQ音樂、ima、騰訊文檔等,都接入了DeepSeek模型,并同步支持自研混元大模型。

“自研+開源”的多模型策略還將繼續(xù)。騰訊方面表示,騰訊元寶將繼續(xù)堅(jiān)持“雙?!薄M度肜^續(xù)加大,近半個(gè)月就投入近3個(gè)億。在前不久的財(cái)報(bào)會(huì)上,劉熾平透露:“我們計(jì)劃在2025年進(jìn)一步加大資本支出,預(yù)計(jì)資本支出將占收入的十幾個(gè)百分點(diǎn)?!?/p>

這又是一次“追隨策略”的勝利(至少是階段性的勝利)。

緊盯市場走向,快速跟進(jìn)與創(chuàng)新結(jié)合,實(shí)現(xiàn)后發(fā)優(yōu)勢,這是騰訊擅長的。從騰訊“起家”的QICQ,到如今的元寶都是如此。

騰訊曾經(jīng)飽受“抄襲”“模仿”的質(zhì)疑。馬化騰早在2010年就稱“模仿也是一種嘗新”,在2018年面對記者提問時(shí),他的回答更加完整:“有時(shí)候?yàn)榱藙?chuàng)新而創(chuàng)新,反而會(huì)讓創(chuàng)新動(dòng)作變形。很多創(chuàng)新往往是自下而上的,總是在不經(jīng)意的邊緣地方出現(xiàn)。如果企業(yè)完全自上而下,給創(chuàng)新定好方向,這樣往往沒有活力,很僵化?!睆呐cDeepSeek合作,與自研模型并行,并與內(nèi)部應(yīng)用融合來看,創(chuàng)新可以是自下而上的,也可以是從外向內(nèi)的。

在AI的牌桌上,巨頭要考慮的不僅僅是如何造出更好的模型,而是怎樣發(fā)揮自身積累的產(chǎn)品優(yōu)勢,以及怎樣讓對AI的投入和自身戰(zhàn)略相結(jié)合。

打開網(wǎng)易新聞 查看精彩圖片

在接入DeepSeek之前,騰訊在整個(gè)2024年也已經(jīng)廣泛部署AI,并且從中“嘗到了甜頭”。騰訊內(nèi)部已經(jīng)有超過700個(gè)業(yè)務(wù)場景接入混元大模型與加入開源大模型。全年資本開支767億元,同比增長221%,收入同比增長11%。其中騰訊會(huì)議收入增長40%,AI功能月活增長到1500萬。而企業(yè)微信收入同比翻倍。

與其說騰訊突然“激進(jìn)”了,不如說輪子落進(jìn)了合適的車轍,加速是勢在必行。

03

融合的風(fēng)

馬化騰在產(chǎn)品層面緊跟梁文鋒,整個(gè)大模型行業(yè)也在跟著梁文鋒而動(dòng)。

毋庸置疑的是,DeepSeek R1從今年初開始掀起了全球“推理模型熱”。AI模型求“大”不再是公認(rèn)唯一可行的路徑,再經(jīng)過DeepSeek對工具的不斷開源,更讓人們有意識(shí)追求“效率”的魅力。

OpenAI o3 mini、谷歌的Gemini Flash Thinking;國內(nèi)月之暗面的Kimi 1.5,科大訊飛 X1,阿里Qwen 2.5-Math-PRM……

這次DeepSeek對通用模型的更新,則顯示出了“融合”的趨勢。V3-3024融入了R1的強(qiáng)化學(xué)習(xí)推理優(yōu)化方法,同時(shí)保留了通用模型的高效執(zhí)行特性,是突破通用模型“平庸困境”的一種嘗試。

打開網(wǎng)易新聞 查看精彩圖片

騰訊的混元T1正式版也有異曲同工之妙,從架構(gòu)層面融合,使得其作為推理模型反應(yīng)速度顯著提升,與此同時(shí)能更好地處理上下文。DeepSeek嘗試讓通用模型向推理模型的方向走了走,騰訊則讓推理模型向通用模型的方向走了走,兩端都在向中間靠攏。

模型生產(chǎn)商兼顧幾種路徑,導(dǎo)致產(chǎn)品線冗雜的問題已經(jīng)有所顯現(xiàn)。

此前OpenAI CEO山姆·奧特曼(Sam Altman)在談及GPT-5的計(jì)劃時(shí)就曾經(jīng)透露,模型和產(chǎn)品功能太復(fù)雜,未來OpenAI將將其統(tǒng)一,o3模型不再單獨(dú)發(fā)布,GPT-4.5也將是OpenAI最后一個(gè)非鏈?zhǔn)剿季S模型。

Anthropic搶先OpenAI一步,試圖給出解決方法。在2月底發(fā)布了“全球首個(gè)混合模型”Claude 3.7 Sonnet。即在單一架構(gòu)上整合實(shí)時(shí)應(yīng)答(Fast Thinking)和深度思考(Slow Thinking)。不讓用戶去在不同的模型間進(jìn)行切換,而是模型自行判斷當(dāng)前問題是否需要深度思考。

也許接下來的問題是融合的方式選擇:是通過AI自動(dòng)調(diào)配來實(shí)現(xiàn)“融合”(實(shí)際上是將不同模型藏在后臺(tái)),還是在模型層面做融合(就像V3-3024和騰訊混元T1正式版的做法)。

所謂的“兩條腿走路”,是并行開發(fā)分離的通用模型或者推理模型。那么如今的融合趨勢,就是將兩條腿變成了一個(gè)輪子,邁左腳還是右腳,別去操心了。