
出品 | 網(wǎng)易科技《態(tài)度》欄目
作者 | 李姝
編輯 | 丁廣勝
當DeepSeek以開源策略席卷開發(fā)者社區(qū)時,火山引擎用閉源的方式展示了另一種可能性。
“截至2025年3月底,豆包大模型日均tokens調(diào)用量已超過12.7萬億,是2024年12月的3倍,是一年前剛剛發(fā)布時的106倍?!?/b>
4月17日,在火山引擎FORCE LINK AI創(chuàng)新巡展上,火山引擎總裁譚待亮出一組數(shù)據(jù),為閉源大模型的生存戰(zhàn)注入強心劑。
如今,豆包大模型已成為眾多企業(yè)AI轉(zhuǎn)型的核心利器。就在巡展當日,面向企業(yè)市場,全新的豆包1.5·深度思考模型正式登場,同時升級文生圖模型3.0及視覺理解模型,還推出了OS Agent解決方案和AI云原生推理套件。
這一系列動作表明,在模型性能競賽轉(zhuǎn)向 “Agent生態(tài)卡位戰(zhàn)” 的當下,火山引擎已精準錨定新的發(fā)展方向。
加量不加價,豆包深度思考模型開放API
官方技術(shù)報告顯示,豆包深度思考模型采用MoE架構(gòu),總參數(shù)200B,激活參數(shù)僅20B,以較小參數(shù)實現(xiàn)了媲美頂尖模型的效果。得益于高效算法和高性能推理系統(tǒng),豆包模型的API服務在保證高并發(fā)的同時,將延遲降至20毫秒,目前已通過火山引擎開放供用戶體驗。
在數(shù)學推理、編程競賽、科學推理等專業(yè)領(lǐng)域,豆包模型的性能與OpenAI o3-mini-high、Gemini 2.5 Pro等模型不相上下。

在通用任務上,豆包深度思考模型的人類評估表現(xiàn)比DeepSeek R1高出8%,單位推理成本更是降低了50%,完美實現(xiàn)了性能與效率的平衡。
相較于僅限文字理解的 DeepSeek,豆包深度思考模型的多模態(tài)能力優(yōu)勢顯著。
譚待介紹,升級后的豆包?視覺理解模型具備強大的視覺理解能力,使模型不僅 “會看會想”,還能進行立體思考。從識別菜單內(nèi)容,根據(jù)用戶口味和過敏食物提供點餐推薦,到分析航拍圖上的顏色、形狀等信息并結(jié)合地貌進行深度研判,豆包的多模態(tài)應用場景豐富且實用。
豆包?文生圖模型3.0同樣表現(xiàn)亮眼,其文字排版和圖像生成能力進一步增強,支持2K高清圖片生成,在影視、海報、繪畫等領(lǐng)域應用廣泛。在最新的文生圖領(lǐng)域權(quán)威榜單Artificial Analysis競技場中,豆包?文生圖3.0模型已躋身全球第一梯隊。

豆包這一次放的大招,可謂威力十足。目前豆包已經(jīng)在AppStore內(nèi)免費APP排行榜成功登頂,超越位居第三的DeepSeek和第九的騰訊元寶。
迎接Agent元年,“應用Agent”+“OS Agent”雙管發(fā)力
強大的模型性能為AI Agent的發(fā)展奠定了堅實基礎(chǔ)。
譚待指出:“AI Agent應用主要分為應用型Agent和OS Agent兩個方向。應用型Agent專注于特定領(lǐng)域任務,如客服Agent、數(shù)據(jù)Agent、代碼Agent 等;OS Agent則具備跨場景通用性和靈活性,可操作瀏覽器、電腦、手機等設備,完成復雜任務?!?/p>
在應用型Agent領(lǐng)域,面向?qū)I(yè)開發(fā)者的代碼Agent——Trae重磅推出。相較于傳統(tǒng)AI插件產(chǎn)品,Trae將AI與IDE深度融合,帶來更智能的開發(fā)體驗。
在OS Agent方面,火山引擎正式發(fā)布OS Agent解決方案,整合豆包UI-TARS模型,以及veFaaS函數(shù)服務、云服務器、云手機等產(chǎn)品,實現(xiàn)對代碼、瀏覽器、電腦、手機及其他Agent的高效操作。
針對Agent帶來的大量推理消耗問題,火山引擎推出ServingKit推理套件,可在2分鐘內(nèi)完成671B DeepSeek R1的下載和預熱,13秒完成推理引擎加載。
同時,通過優(yōu)化火山引擎EIC,將KV cache命中率提高10倍,在100% cache命中場景下,TPS吞吐量提升至5倍以上;對算子、AI網(wǎng)關(guān)、VKE編排調(diào)度的升級,也大幅降低了GPU消耗。
對于GPU的折舊問題,譚待認為:“如果把軟件層面的工作做好,硬件的生命周期是可以拉長的。而且不同的場景對模型的延遲、吞吐要求是不一樣的。更重要的是在軟件層面和運營層面做好相關(guān)工作,這樣就能使硬件的生命周期和投資回報率(ROI)都達到最佳狀態(tài)。”
模型好壞比開源閉源更關(guān)鍵,對豆包充滿信心
“模型好壞,與開源閉源無關(guān)?;鹕揭嬖谶m配DeepSeek方面表現(xiàn)出色,對豆包充滿信心。”火山引擎總裁譚待在采訪中直言。
面對豆包大模型日均tokens調(diào)用量百倍的增長,譚待表示,技術(shù)發(fā)展短期易被高估、長期易被低估,tokens增長量取決于模型突破,如視覺推理、Agent等方面的進展,對未來模型調(diào)用量百倍增長持謹慎樂觀態(tài)度。
2025年被稱為Agent元年,但譚待認為:“能寫詩的不是Agent,能跑通供應鏈的才是。” 這一觀點凸顯了火山引擎的務實布局。

譚待指出,“我們希望AI能夠解決更復雜,更完整的問題,不再僅僅是對信息的感知、處理和生成,而是能端到端的處理任務。AI能做到這些,才能稱之為一個合格的Agent。”
他認為,實現(xiàn)這一目標需完成三大技術(shù)突破:首先最核心的是要有更強的模型。要做好Agent,模型需要有能力做好思考、計劃和反思,而且要一定得支持多模態(tài)。其次,開發(fā)OS Agent架構(gòu)體系,實現(xiàn)數(shù)字與物理世界的雙向交互。最后,通過AI云原生技術(shù)實現(xiàn)推理成本與延遲的指數(shù)級下降,支撐大規(guī)模應用落地。
目前,火山引擎已支持MCP協(xié)議,統(tǒng)一協(xié)議有助于降低開發(fā)成本、加速行業(yè)發(fā)展。未來,火山引擎不僅會推出數(shù)據(jù)智能體Data Agent等垂直類Agent產(chǎn)品,還將為通用Agent開發(fā)提供工具和方案。在譚待看來,判斷真正的Agent,關(guān)鍵要看其能否完成復雜任務、是否運用深度思考模型。
當閉源模型憑借成本優(yōu)勢挑戰(zhàn)開源陣營,當開源生態(tài)反哺商業(yè)創(chuàng)新,這場大模型競爭早已超越技術(shù)層面,演變?yōu)榻M織能力與生態(tài)運營的全方位較量。
可以預見的是,在Agent戰(zhàn)場中,唯有那些將技術(shù)深度融入行業(yè)各個環(huán)節(jié)的參與者,才能最終脫穎而出。
熱門跟貼