2025年初DeepSeek躍入大眾眼簾,一方面將AI推理和應(yīng)用推入發(fā)展快車道,但另一方面也意味著此前模型巨頭們之間的競爭門檻被快速消弭。

這顯示出,無論是字節(jié)跳動的“大力出奇跡”,阿里巴巴的“開源戰(zhàn)略”,還是百度文心大模型的早發(fā)優(yōu)勢,都不具備明顯護城河。

中國科技巨頭之間圍繞大模型技術(shù)所開展的布局,也早已從單純的模型技術(shù)參數(shù)比拼,升級為基座、算力、場景、生態(tài)的全方位較量。

在Create 2025大會上,百度發(fā)布了文心大模型4.5 Turbo和深度思考模型X1 Turbo,前者每百萬token的輸入價格僅為0.8元,輸出價格3.2元,相比文心4.5模型的價格下降80%,后者相比文心X1,性能提升的同時價格再降50%。

百度創(chuàng)始人兼首席執(zhí)行官李彥宏在演講中表示,當前開發(fā)者做AI應(yīng)用的一大阻礙,就是大模型成本高、用不起。成本降低后,開發(fā)者和創(chuàng)業(yè)者們才可以放心大膽地做開發(fā),企業(yè)才能夠低成本地部署大模型,最終推動各行各業(yè)應(yīng)用的爆發(fā)。

全棧護城河

圍繞基座模型本身的競速還在持續(xù)。

“多模態(tài)將成為未來基礎(chǔ)模型的標配,純文本模型的市場會越變越小,多模態(tài)模型的市場會越來越大”。李彥宏指出,基于這樣的判斷,文心大模型4.5 Turbo和X1 Turbo都進一步增強了多模態(tài)能力。在多個基準測試集中,文心4.5 Turbo多模態(tài)能力與GPT 4.1持平、優(yōu)于GPT 4o。

文心大模型X1 Turbo是基于4.5 Turbo的深度思考模型,性能提升的同時,具備更先進的思維鏈,問答、創(chuàng)作、邏輯推理、工具調(diào)用和多模態(tài)能力進一步增強,整體效果領(lǐng)先DeepSeek R1、V3最新版。

“有了這樣超級能干的基礎(chǔ)模型,我們就可以打造出超級有用、超級有趣的AI應(yīng)用來。”李彥宏表示。

由此,大會期間,百度發(fā)布了一系列新應(yīng)用,先打了個樣。

“2025年最令人激動的突破性應(yīng)用之一,就是AI數(shù)字人。”李彥宏介紹,百度發(fā)布的高說服力數(shù)字人,具有聲形超擬真、內(nèi)容更專業(yè)、互動更靈活的特點,在電商直播、游戲、消費等領(lǐng)域,有著巨大應(yīng)用空間。

不同于傳統(tǒng)數(shù)字人有明顯的文案枯燥、動作少、機器音重等缺點,高說服力數(shù)字人的表現(xiàn)力甚至可以超越真人。支撐其落地的一個重要基礎(chǔ)是“劇本生成”能力,基于多模態(tài)大模型,可以讓高說服力數(shù)字人做到表情、語氣、動作都匹配臺詞內(nèi)容實時調(diào)整,情緒轉(zhuǎn)折和動作切換十分順暢。

智能體已成為AI應(yīng)用的代名詞。其中,代碼智能體Coding Agent,是最近半年AI應(yīng)用進展最快、最火的賽道。全球陸續(xù)涌現(xiàn)了cursor、devin、lovable等一系列代碼智能體。

去年11月的百度世界大會上,百度發(fā)布了無代碼編程工具“秒噠”,它有無代碼編程、多智能體協(xié)作、多工具調(diào)用三大特性。今年3月,秒噠向全社會開放,任何人都可以通過秒噠,一句話生成應(yīng)用。

李彥宏表示,“全球有近3000萬程序員,有80億人,當技術(shù)的門檻逐漸消失,每個人都可以具備程序員的能力”。

文心大模型的能力拓展和效率提升,得益于飛槳文心的聯(lián)合優(yōu)化。百度首席技術(shù)官王海峰在現(xiàn)場介紹,飛槳框架3.0既延續(xù)了動靜統(tǒng)一、訓(xùn)推一體的技術(shù)特色,更在自動并行、神經(jīng)網(wǎng)絡(luò)編譯器、高階自動微分等方面持續(xù)突破。截至目前,飛槳文心開發(fā)者數(shù)量已超過2185萬,服務(wù)超過67萬家企業(yè),創(chuàng)建的模型達到110萬。

不止于此,百度作為國內(nèi)最早布局大模型的廠商,其核心優(yōu)勢在于“芯片-框架-模型-應(yīng)用”四層架構(gòu)的全棧自研能力,并通過大規(guī)模算力集群構(gòu)建的成本與效率壁壘。

進入人工智能時代,算力是重要基石。在大會期間,李彥宏發(fā)布一系列大模型基座和應(yīng)用產(chǎn)品后,宣布了“One more thing”:正式點亮國內(nèi)首個全自研3萬卡集群。

這是基于昆侖芯第三代芯片P800的XPU架構(gòu)。據(jù)介紹,該集群可同時承載5-6個千億參數(shù)大模型全量訓(xùn)練,支持1000個客戶進行百億參數(shù)模型微調(diào)。

打開網(wǎng)易新聞 查看精彩圖片

一個三萬卡集群的建設(shè),從硬件到軟件,技術(shù)挑

戰(zhàn)是全方位的。據(jù)悉,該集群建設(shè)了超大規(guī)模HPN高性能網(wǎng)絡(luò),將通信帶寬有效性提升至90%以上;為了提升GPU有效利用率(簡稱“MFU”),百舸不斷優(yōu)化并完善模型的分布式訓(xùn)練策略,將訓(xùn)練主流開源模型的集群MFU提升至58%;而昆侖芯作為百度自研AI芯片,在百舸4.0的加持下,能夠幫助企業(yè)解決算力供應(yīng)問題。

巨頭齊競速

隨著大模型產(chǎn)業(yè)持續(xù)迭代競速,中國科技巨頭的戰(zhàn)略路徑也逐漸清晰:百度希冀憑借全棧布局與自研基礎(chǔ)設(shè)施搶占身位,阿里巴巴的業(yè)務(wù)加速從電商向AI轉(zhuǎn)型,字節(jié)跳動則在基座模型基礎(chǔ)上推進應(yīng)用全方位覆蓋。

誰能真正在模型和應(yīng)用之間找到生態(tài)閉環(huán)的鑰匙,誰就具備更多競爭力。

其中,阿里巴巴正試圖撕掉“電商公司”標簽,轉(zhuǎn)向AI驅(qū)動的技術(shù)公司。其主要從云計算、模型、應(yīng)用三個維度完善戰(zhàn)略布局。

阿里云計算網(wǎng)絡(luò)是其主要技術(shù)底座,但公司方面尚未公布大規(guī)模自研算力集群的進展;旗下通義千問開源模型的能力已經(jīng)躋身全球第一梯隊;應(yīng)用方面,釘釘與夸克是其典型落地場景。

字節(jié)跳動的AI戰(zhàn)略則依托了云計算平臺火山引擎、豆包基座模型和應(yīng)用構(gòu)建整體邏輯,應(yīng)用層在B端有飛書、C端有即夢作為典型,此外還面向諸多場景推進應(yīng)用落地,被業(yè)內(nèi)稱為“全面平推”。

相比之下,百度在核心算力基礎(chǔ)設(shè)施方面構(gòu)建了夯實的底色,讓其在大模型競爭中有更深一層底氣。

海通證券就認為,如果受貿(mào)易環(huán)境影響,部分美國GPU廠商無法在中國市場正常推進業(yè)務(wù),預(yù)計中國數(shù)據(jù)中心AI芯片市場將重構(gòu)為華為、寒武紀、昆侖芯三家公司主導(dǎo)的格局。

在開發(fā)者大會期間,百度智能云還發(fā)布了昆侖芯超節(jié)點。

百度集團執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖介紹,昆侖芯超節(jié)點支持把64張昆侖芯AI加速卡放到同一個機柜,一個機柜就能頂過去100臺機器。與以往的方案相比,昆侖芯超節(jié)點用更快的機內(nèi)通信替代機間通信,可以有效降低帶寬成本,最終實現(xiàn)卡間互聯(lián)帶寬提升8倍,單機訓(xùn)練性能提升10倍,單卡推理性能提升13倍。

沈抖認為,未來三年,推理降本,一定是企業(yè)最重要的工作。

2025年被稱為AI應(yīng)用爆發(fā)之年,為此,百度搜索開放平臺發(fā)布了“AI開放計劃”(sai.baidu.com),通過建立多樣的內(nèi)容和服務(wù)分發(fā)機制,為智能體、H5、小程序、獨立App等應(yīng)用開發(fā)者提供流量和收益。

MCP的出現(xiàn),幫助開發(fā)者和企業(yè)在開發(fā)Agent時,能夠更好利用行業(yè)數(shù)據(jù)和工具。本次大會期間,百度智能云發(fā)布國內(nèi)首個企業(yè)級MCP服務(wù),第一批已經(jīng)有超過1000個MCP Servers供企業(yè)及開發(fā)者選擇。另外,開發(fā)者也可以在百度智能云千帆平臺上開發(fā)自己的MCP Server,并發(fā)布到MCP廣場,支持免費托管,而且百度搜索也會索引這些MCP Server,讓它們被更多的開發(fā)者引用。

當前大模型競爭的本質(zhì)是生態(tài)能力的比拼,而基礎(chǔ)設(shè)施與場景滲透成為關(guān)鍵變量。百度憑借全棧布局、自研算力與開放生態(tài)暫時領(lǐng)先,但其能否持續(xù)保持優(yōu)勢,取決于能否在行業(yè)場景中實現(xiàn)更深度的標準化輸出。隨著DeepSeek等新玩家加入,中國大模型市場的“混戰(zhàn)”將持續(xù)升級,而真正的贏家,屬于那些既能仰望技術(shù)星空、又能腳踩產(chǎn)業(yè)實地的長期主義者。