繼2月底推出新一代快思考模型混元Turbo S后,3月21日深夜, 騰訊宣布推出自研深度思考模型混元T1正式版, 并同步在騰訊云官網(wǎng)上線(xiàn)。

3月初,騰訊發(fā)布了混元Turbo S,有網(wǎng)友問(wèn):

安排——
其實(shí),騰訊在2月就已經(jīng)通過(guò)騰訊元寶開(kāi)放了T1-preview模型。騰訊推出自研深度思考模型混元T1正式版,并在騰訊混元和騰訊云官網(wǎng)開(kāi)放體驗(yàn),即將在騰訊元寶灰度上線(xiàn)。
效果如何?先直接看測(cè)試表現(xiàn):
在MMLU-pro、CEval、AIME、Zebra Logic等中英文知識(shí)及競(jìng)賽級(jí)數(shù)學(xué)、邏輯推理的公開(kāi)基準(zhǔn)測(cè)試中,混元T1正式版的成績(jī)達(dá)到業(yè)界領(lǐng)先水平。


注:表格中,其它模型的評(píng)測(cè)指標(biāo)來(lái)自官方評(píng)測(cè)結(jié)果,官方評(píng)測(cè)結(jié)果中沒(méi)有的部分來(lái)自混元內(nèi)部評(píng)測(cè)平臺(tái)結(jié)果。
值得一提的是, 騰訊混元T1正式版采用Hybrid-Mamba-Transformer融合架構(gòu),工業(yè)界首次將混合Mamba架構(gòu)無(wú)損應(yīng)用于超大型推理模型。該架構(gòu)針對(duì)長(zhǎng)序列處理專(zhuān)項(xiàng)優(yōu)化,實(shí)現(xiàn)首字秒出、吐字速度最快80tokens/s,并有效解決長(zhǎng)文推理中的上下文丟失問(wèn)題。定價(jià)方面,混元T1輸入價(jià)格低至每百萬(wàn)tokens1元,輸出價(jià)格為4元,創(chuàng)行業(yè)新低。通過(guò)強(qiáng)化學(xué)習(xí)與數(shù)學(xué)、邏輯推理專(zhuān)項(xiàng)訓(xùn)練,混元T1在多項(xiàng)基準(zhǔn)測(cè)試中達(dá)到業(yè)界領(lǐng)先水平,技術(shù)普惠與成本優(yōu)勢(shì)雙軌并行。
騰訊發(fā)布自研混元T1正式版
騰訊混元T1正式版如期發(fā)布。
之所以稱(chēng)之為“如期發(fā)布”,是因?yàn)榍安痪抿v訊混元自研的快思考模型混元Turbo S正式發(fā)布時(shí),騰訊就曾表示,正式版的騰訊混元T1模型API也將很快上線(xiàn),對(duì)外提供接入服務(wù)。
據(jù)知情人士介紹,騰訊混元T1正式版以混元Turbo S為基座打造,亮點(diǎn)在于其是能夠秒回、吐字快、擅長(zhǎng)超長(zhǎng)文處理的強(qiáng)推理模型,性能保持業(yè)界領(lǐng)先。
“混元T1正式版沿用了混元Turbo S的創(chuàng)新架構(gòu),采用Hybrid-Mamba-Transformer融合模式。這是工業(yè)界首次將混合Mamba架構(gòu)無(wú)損應(yīng)用于超大型推理模型?!鄙鲜鲋槿耸空f(shuō),這一架構(gòu)顯著降低了訓(xùn)練和推理成本,讓混元T1實(shí)現(xiàn)首字秒出,吐字速度達(dá)到最快80 tokens/s。
混元T1在超長(zhǎng)文本推理領(lǐng)域也展現(xiàn)出獨(dú)特優(yōu)勢(shì),能夠有效解決長(zhǎng)文推理中常見(jiàn)的上下文丟失和長(zhǎng)距離信息依賴(lài)問(wèn)題。同時(shí),混合Mamba架構(gòu)針對(duì)長(zhǎng)序列處理進(jìn)行了專(zhuān)項(xiàng)優(yōu)化,提升了解碼速度。
通過(guò)大規(guī)模強(qiáng)化學(xué)習(xí),并結(jié)合數(shù)學(xué)、邏輯推理、科學(xué)和代碼等理科難題的專(zhuān)項(xiàng)優(yōu)化,混元T1正式版進(jìn)一步提升了推理能力。與此前已上線(xiàn)騰訊元寶的混元T1-preview模型相比,綜合效果明顯提升。
騰訊方面提供的數(shù)據(jù)顯示,在體現(xiàn)推理模型基礎(chǔ)能力的常見(jiàn)Benchmark上,以及在中英文知識(shí)及競(jìng)賽級(jí)數(shù)學(xué)、邏輯推理的公開(kāi)基準(zhǔn)測(cè)試中,混元T1的成績(jī)也達(dá)到業(yè)界領(lǐng)先推理模型的水平。此外,T1還在多項(xiàng)對(duì)齊任務(wù)、指令跟隨任務(wù)和工具利用任務(wù)中展現(xiàn)出了非常強(qiáng)的適應(yīng)性。
值得一提的是,目前,混元T1已在騰訊云官網(wǎng)上線(xiàn)。定價(jià)方面,輸入價(jià)格為每百萬(wàn)tokens 1元,輸出價(jià)格為每百萬(wàn)tokens 4元。
騰訊混元大模型持續(xù)快速迭代
今年以來(lái),騰訊混元大模型持續(xù)快速迭代,AI似乎已成為騰訊內(nèi)部最大的驅(qū)動(dòng)力。
其推出了深度思考模型T1 Preview和快思考模型Turbo S,并已廣泛應(yīng)用于騰訊元寶、ima、騰訊文檔、微信讀書(shū)、搜狗輸入法、QQ瀏覽器等多款內(nèi)部產(chǎn)品。騰訊混元積極擁抱開(kāi)源,其開(kāi)源模型全面覆蓋文本、圖像、視頻和3D生成等多個(gè)模態(tài)。
業(yè)內(nèi)認(rèn)為,這一戰(zhàn)略選擇的背后,一方面基于騰訊長(zhǎng)期以來(lái)堅(jiān)持技術(shù)普惠的理念,另一方面也得益于騰訊在用戶(hù)與產(chǎn)業(yè)多端的場(chǎng)景與生態(tài)優(yōu)勢(shì),為AI技術(shù)的落地提供了廣闊空間。
在日前公布的2024年財(cái)報(bào)中,騰訊年研發(fā)投入707億元?jiǎng)?chuàng)下紀(jì)錄。對(duì)于業(yè)務(wù)側(cè),AI技術(shù)對(duì)微信新芽業(yè)務(wù)的提振效應(yīng),推動(dòng)了騰訊營(yíng)銷(xiāo)服務(wù)板塊的快速增長(zhǎng)。其2024年第四季度在AI領(lǐng)域的資本開(kāi)支超390億元,2025年將持續(xù)加碼,AI戰(zhàn)略已進(jìn)入重投入期。
騰訊董事會(huì)主席兼首席執(zhí)行官馬化騰表示,“受益于AI賦能的廣告平臺(tái)升級(jí)、視頻號(hào)用戶(hù)參與度提升以及長(zhǎng)青游戲的增長(zhǎng),我們2024年第4季取得雙位數(shù)的收入增長(zhǎng),并持續(xù)提升運(yùn)營(yíng)效率。數(shù)月前,我們重組了AI團(tuán)隊(duì)以聚焦于快速的產(chǎn)品創(chuàng)新及深度的模型研發(fā),增加了AI相關(guān)的資本開(kāi)支,并加大了我們對(duì)原生AI產(chǎn)品的研發(fā)和營(yíng)銷(xiāo)力度?!彼硎尽?/p>
巨頭競(jìng)逐AI
我國(guó)AIGC應(yīng)用或已進(jìn)入加速期
隨著2025年我國(guó)進(jìn)入科技突破大年,各大互聯(lián)網(wǎng)巨頭持續(xù)加大AI領(lǐng)域的投入。
近期,字節(jié)跳動(dòng)豆包大模型團(tuán)隊(duì)官宣開(kāi)源一項(xiàng)針對(duì)MoE(混合專(zhuān)家模型)架構(gòu)的關(guān)鍵優(yōu)化技術(shù),可將大模型訓(xùn)練效率提升1.7倍,成本節(jié)省40%。
據(jù)悉,該技術(shù)叫COMET,已實(shí)際應(yīng)用于字節(jié)的萬(wàn)卡集群訓(xùn)練,累計(jì)幫助節(jié)省了數(shù)百萬(wàn) GPU 小時(shí)訓(xùn)練算力。
阿里巴巴近日宣布推出AI旗艦應(yīng)用——新夸克,將“深度思考”能力融入AI搜索。據(jù)介紹,用戶(hù)在“AI超級(jí)框”中輸入指令后,夸克智能中樞可以自動(dòng)識(shí)別意圖,規(guī)劃梳理后調(diào)動(dòng)各種不同模型和智能體(Agent)模塊,幫助用戶(hù)完成任務(wù)。
百度日前連發(fā)兩款免費(fèi)新模型,分別是文心大模型4.5和文心大模型X1。據(jù)百度相關(guān)負(fù)責(zé)人介紹,文心大模型4.5在多模態(tài)理解能力方面顯著提升。文心大模型X1為深度思考模型,在性能上對(duì)標(biāo)DeepSeek-R1,具備“長(zhǎng)思維鏈”,擅長(zhǎng)中文知識(shí)問(wèn)答、文學(xué)創(chuàng)作、邏輯推理等,而且大幅降低推理成本。
值得關(guān)注的是,國(guó)產(chǎn)大模型開(kāi)源步伐持續(xù)加速。阿里巴巴在基礎(chǔ)模型和原生應(yīng)用方面持續(xù)發(fā)力,近期相繼發(fā)布了Qwen2.5-VL、Qwen2.5-Max、通義萬(wàn)相2.1、千問(wèn)QWQ-32B等性能領(lǐng)先的開(kāi)源模型。百度方面則表示,將在6月30日正式將文心大模型開(kāi)源,并在今年下半年發(fā)布文心大模型5.0。
業(yè)內(nèi)分析認(rèn)為,在技術(shù)創(chuàng)新與商業(yè)應(yīng)用的雙輪驅(qū)動(dòng)下,AI有望在互聯(lián)網(wǎng)等數(shù)字原生領(lǐng)域率先形成規(guī)?;涞?。
華富人工智能ETF基金經(jīng)理郜哲表示,結(jié)合騰訊財(cái)報(bào)和近期互聯(lián)網(wǎng)巨頭競(jìng)逐AI的情況來(lái)看,我國(guó)AIGC應(yīng)用或已進(jìn)入加速期。隨著AI在各行業(yè)深入滲透,有望誕生更多AI創(chuàng)新模式與高質(zhì)量產(chǎn)品,進(jìn)一步推動(dòng)人工智能產(chǎn)業(yè)鏈向更加現(xiàn)實(shí)、業(yè)績(jī)可落地的方向發(fā)展。
(來(lái)源:中國(guó)基金報(bào))




上新!騰訊混元推出深度思考模型T1正式版
3月初,騰訊發(fā)布了,有網(wǎng)友問(wèn):

安排——
其實(shí),騰訊在2月就已經(jīng)通過(guò)騰訊元寶開(kāi)放了T1-preview模型。今天,騰訊推出自研深度思考模型混元T1正式版,并在騰訊混元和騰訊云官網(wǎng)開(kāi)放體驗(yàn),即將在騰訊元寶灰度上線(xiàn)。
效果如何?先直接看測(cè)試表現(xiàn):
在MMLU-pro、CEval、AIME、Zebra Logic等中英文知識(shí)及競(jìng)賽級(jí)數(shù)學(xué)、邏輯推理的公開(kāi)基準(zhǔn)測(cè)試中,混元T1正式版的成績(jī)達(dá)到業(yè)界領(lǐng)先水平。


注:表格中,其它模型的評(píng)測(cè)指標(biāo)來(lái)自官方評(píng)測(cè)結(jié)果,官方評(píng)測(cè)結(jié)果中沒(méi)有的部分來(lái)自混元內(nèi)部評(píng)測(cè)平臺(tái)結(jié)果
混元T1正式版基于混元Turbo S打造,繼承「秒回、吐字快」的優(yōu)秀基因,還擅長(zhǎng)處理超長(zhǎng)文本。同時(shí),相較于T1-preview版本的「初出江湖」,混元T1正式版的推理能力更上一層樓——
得益于大規(guī)模強(qiáng)化學(xué)習(xí),以及數(shù)學(xué)、邏輯、科學(xué)、代碼這些理科專(zhuān)項(xiàng)訓(xùn)練,混元T1正式版在解決復(fù)雜問(wèn)題時(shí),如同學(xué)霸一樣頭腦清晰、思維縝密。
目前,混元T1正式版已在騰訊「上崗」(騰訊混元和騰訊云官網(wǎng)皆可申請(qǐng)?bào)w驗(yàn)),云上API輸入價(jià)格為1元/百萬(wàn)tokens ,輸出價(jià)格為4元/百萬(wàn)tokens 。
//沿用Turbo S創(chuàng)新架構(gòu),計(jì)算成本大幅降低
以前的大模型,在處理長(zhǎng)文本推理時(shí),總是「算力吃緊」,計(jì)算復(fù)雜度高、內(nèi)存占用大,導(dǎo)致訓(xùn)練和推理成本一路飆升。
混元T1正式版沿用了Turbo S的創(chuàng)新架構(gòu),全球首創(chuàng)將Hybrid-Mamba-Transformer融合模式無(wú)損應(yīng)用到超大規(guī)模推理模型中,讓大模型在處理復(fù)雜任務(wù)時(shí)不再氣喘吁吁,而是又快又省,輕松跑完全程,從而讓企業(yè)和開(kāi)發(fā)者以更低的投入即可實(shí)現(xiàn)高效的AI部署。
//長(zhǎng)文本信息捕捉,文風(fēng)簡(jiǎn)潔、幻覺(jué)低
過(guò)去,AI在處理長(zhǎng)文本時(shí),總像個(gè)「馬虎的學(xué)生」,前面交代過(guò)的任務(wù),后面轉(zhuǎn)頭就忘了;甚至還經(jīng)常自己「腦補(bǔ)」一些不存在的情節(jié),產(chǎn)生令人頭疼的「幻覺(jué)」。
騰訊混元T1正式版通過(guò)架構(gòu)優(yōu)化,專(zhuān)門(mén)強(qiáng)化了長(zhǎng)文本捕捉和邏輯推理能力,就像換了個(gè)精明干練的助手,不僅記憶力強(qiáng)、邏輯嚴(yán)謹(jǐn),還能用簡(jiǎn)潔的語(yǔ)言精準(zhǔn)回應(yīng),不再東拉西扯、憑空想象。
現(xiàn)在,不論是寫(xiě)長(zhǎng)篇論文、分析技術(shù)文檔,還是處理復(fù)雜推理任務(wù),混元T1正式版都能保持內(nèi)容邏輯清晰、文字干凈利落,同時(shí)幻覺(jué)率極低,真正做到說(shuō)人話(huà)、辦實(shí)事。
//長(zhǎng)序列專(zhuān)項(xiàng)優(yōu)化,解碼速度提升2倍
過(guò)去,大模型的「深度思考」讓很多用戶(hù)又愛(ài)又恨,特別是長(zhǎng)文本生成時(shí),AI 可能「想半天」才輸出,甚至在關(guān)鍵時(shí)刻卡頓,影響使用體驗(yàn)。
混元T1正式版針對(duì)長(zhǎng)序列處理進(jìn)行了專(zhuān)項(xiàng)優(yōu)化,采用更高效的計(jì)算方式——簡(jiǎn)單來(lái)說(shuō),如同為AI配備一個(gè)「索引目錄」,不用遍歷文本信息,而是快速精準(zhǔn)定位,更高效地提取記憶和上下文信息。
通過(guò)這樣的方式,騰訊混元T1正式版在相近的激活參數(shù)量下,大幅降低了資源消耗,讓解碼速度直接提升2倍,實(shí)現(xiàn)了首字幾乎秒出、吐字速度高達(dá)60-80 token/s。
直觀對(duì)比下——
目前,混元T1正式版已在騰訊云和騰訊混元官網(wǎng)上線(xiàn),企業(yè)客戶(hù)和開(kāi)發(fā)者可通過(guò):
騰訊混元T1需求登記表單登記申請(qǐng)API調(diào)用 ;
騰訊混元官網(wǎng),直接上手體驗(yàn);
從 Turbo S 到T1-Preview,再到T1 正式版,騰訊混元大模型正在快速進(jìn)化,并已廣泛應(yīng)用于騰訊元寶、ima、騰訊文檔、微信讀書(shū)、搜狗輸入法、QQ 瀏覽器等業(yè)務(wù)場(chǎng)景,讓 AI 真正融入日常工作和創(chuàng)作。
現(xiàn)在,混元 T1正式版已經(jīng)準(zhǔn)備就緒,即刻體驗(yàn)試用吧!
(內(nèi)容來(lái)源:騰訊云)
來(lái)源:深圳夢(mèng)(微信號(hào)ID:SZeverything)綜合
為偉大思想而生!
AI+時(shí)代,互聯(lián)網(wǎng)思想(wanging0123),
第一必讀自媒體
熱門(mén)跟貼