打開(kāi)網(wǎng)易新聞 查看精彩圖片

圖片系A(chǔ)I生成

人工智能的戰(zhàn)場(chǎng),正從“云端算力壟斷”轉(zhuǎn)向“終端智能覺(jué)醒”,這是一場(chǎng)更多人能參與、更多變數(shù)存在的普遍競(jìng)爭(zhēng)。

過(guò)去數(shù)月,大模型行業(yè)的認(rèn)知快速刷新,在DeepSeek之前,終端設(shè)備受制于功耗、散熱和存儲(chǔ)空間,只能運(yùn)行輕量化模型,而且效果和體驗(yàn)并不好。當(dāng)DeepSeek通過(guò)"小參數(shù)大智能"的技術(shù)路徑,將百億級(jí)模型壓縮進(jìn)終端芯片時(shí),整個(gè)行業(yè)開(kāi)始意識(shí)到,端側(cè)AI的底層邏輯已發(fā)生質(zhì)變。

從資本市場(chǎng)上相關(guān)概念股業(yè)績(jī)表現(xiàn)和走勢(shì)也可窺見(jiàn)一斑。端側(cè)AI概念龍頭移遠(yuǎn)通信、美格智能業(yè)績(jī)表現(xiàn)亮眼,廣和通市場(chǎng)關(guān)注度同步提升。其中,移遠(yuǎn)通信預(yù)計(jì)2025年一季度歸母凈利潤(rùn)2億元,同比增長(zhǎng)265.19%,主要受益于物聯(lián)網(wǎng)需求復(fù)蘇及車(chē)載、AIoT場(chǎng)景的拓展,邊緣計(jì)算模組及大模型技術(shù)加速落地。?美格智能預(yù)計(jì)一季度凈利潤(rùn)范圍取中值為4600萬(wàn)元,同比增長(zhǎng)611%,高算力AI模組在智能汽車(chē)、無(wú)人機(jī)等領(lǐng)域出貨量激增,海外業(yè)務(wù)占比提升至32%。?廣和通雖未明確披露一季度凈利潤(rùn),但其股價(jià)區(qū)間漲幅達(dá)25.11%,顯示市場(chǎng)對(duì)其5G模組及車(chē)載業(yè)務(wù)前景的樂(lè)觀預(yù)期。

從云端算力來(lái)看,頭部大模型廠商的門(mén)檻是萬(wàn)卡集群,甚至十萬(wàn)卡集群也在規(guī)劃,大模型開(kāi)始趨于集中,但這部分頭部廠商的預(yù)訓(xùn)練需求不會(huì)縮減,反而會(huì)增加。與此同時(shí),更多AI公司正在投入后訓(xùn)練、推理算力的布局,產(chǎn)業(yè)逐漸達(dá)成共識(shí),未來(lái)AI算力特別是推理算力會(huì)出現(xiàn)千倍的增長(zhǎng),網(wǎng)絡(luò)帶寬會(huì)出現(xiàn)百倍增長(zhǎng),存儲(chǔ)需求也會(huì)出現(xiàn)千倍增長(zhǎng)。

2025年或是端側(cè)AI的爆發(fā)元年,算力行業(yè)加速競(jìng)逐推理算力。

DeepSeek效應(yīng),大模型重心轉(zhuǎn)向推理

“端側(cè)AI目前處在一個(gè)最好的時(shí)代”,愛(ài)簿智能CEO孫玉昆表示,我們認(rèn)為大模型的開(kāi)源給端側(cè)和邊緣AI的發(fā)展帶來(lái)了巨大的發(fā)展機(jī)遇。從端側(cè)芯片的發(fā)展來(lái)看,不管是算力還是內(nèi)存帶寬都有創(chuàng)新和提升,從模型能力來(lái)看,適合端側(cè)運(yùn)行的模型能力突飛猛進(jìn),端側(cè)智能會(huì)越來(lái)越好,從AI普及水平來(lái)看,越來(lái)越多的人正在使用端側(cè)和邊緣部署大模型的推理,個(gè)性化需求越來(lái)越多,這些需求在端側(cè)也更容易得到滿(mǎn)足。

DeepSeek的模型迭代(如V1到V3)仍遵循Scaling Law,通過(guò)增加參數(shù)規(guī)模(如從千億到萬(wàn)億級(jí))和訓(xùn)練數(shù)據(jù)量提升性能。這一路徑在早期AI發(fā)展中普遍存在,例如GPT系列模型的參數(shù)爆炸式增長(zhǎng)。但隨著模型規(guī)模接近物理極限(如算力、數(shù)據(jù)獲取瓶頸),單純依賴(lài)參數(shù)擴(kuò)張的邊際收益遞減,技術(shù)重心逐漸轉(zhuǎn)向推理優(yōu)化和多模態(tài)應(yīng)用,典型代表就是DeepSeek-R1通過(guò)模型蒸餾降低推理成本。

DeepSeek推出的NSA(NativeSparseAttention)機(jī)制,通過(guò)優(yōu)化稀疏注意力機(jī)制與硬件適配能力,顯著提升了長(zhǎng)上下文任務(wù)的訓(xùn)練和推理速度。在保持與完全注意力模型相當(dāng)性能的前提下,NSA降低了預(yù)訓(xùn)練成本,并在指令推理任務(wù)中表現(xiàn)更優(yōu)。這一技術(shù)進(jìn)展為復(fù)雜任務(wù)的端側(cè)部署提供了可能性。

阿里云智能集團(tuán)資深副總裁、公共云事業(yè)部總裁劉偉光表示,阿里云開(kāi)發(fā)新模型最重要的兩個(gè)方向,一個(gè)在Reasoning推理,一個(gè)在全模態(tài)融合。在推理方面,大模型未來(lái)一定會(huì)向越來(lái)越強(qiáng)的推理能力演化,強(qiáng)化學(xué)習(xí)不斷提升思維鏈的能力,伴隨著模型內(nèi)生的任務(wù)規(guī)劃、工具使用能力不斷增強(qiáng),大模型會(huì)越來(lái)越智慧,可以不斷思考更難更高問(wèn)題,完成更復(fù)雜任務(wù),這是一個(gè)重要方向,

“特別需要強(qiáng)調(diào)一下強(qiáng)化學(xué)習(xí),2025年我們發(fā)現(xiàn)一個(gè)新的重要趨勢(shì),很多客戶(hù)都在利用更為強(qiáng)大的基礎(chǔ)大模型做基于強(qiáng)化學(xué)習(xí)的后訓(xùn)練,同時(shí)強(qiáng)化學(xué)習(xí)后訓(xùn)練反過(guò)來(lái)為推理提供重要能力補(bǔ)充,我相信未來(lái)會(huì)有更多客戶(hù)基于強(qiáng)化學(xué)習(xí)做后訓(xùn)練,基于更強(qiáng)大的基模會(huì)開(kāi)發(fā)出更新的、更有價(jià)值的AI原生應(yīng)用以及AI Agent?!彼f(shuō)。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

中科曙光方面對(duì)鈦媒體App表示,DeepSeek正在引發(fā)算力產(chǎn)業(yè)鏈?zhǔn)椒磻?yīng),不僅大大激發(fā)了模型后訓(xùn)練、推理環(huán)節(jié)算力需求,加快改變AI算力結(jié)構(gòu),同時(shí)也有助于打破市場(chǎng)對(duì)高算力GPU的路徑依賴(lài),為國(guó)產(chǎn)GPU加速卡帶來(lái)重大機(jī)遇。

無(wú)論是面向云端智算中心,還是面向端側(cè)的大模型一體機(jī),針對(duì)GPU加速卡進(jìn)行軟硬件協(xié)同設(shè)計(jì)優(yōu)化,實(shí)現(xiàn)芯片-算法-模型深度耦合,已成為AI基礎(chǔ)設(shè)施的重要?jiǎng)?chuàng)新方向。

“今年已經(jīng)是AI大模型商業(yè)應(yīng)用元年了?!本┤A信息科技股份有限公司副總裁李思偉認(rèn)為,“去年我們很糾結(jié),行業(yè)存在一個(gè)‘不可能三角’。我們想用大模型更好的智能,就需要付出比較大的成本做部署和訓(xùn)練,但是央國(guó)企等客戶(hù)優(yōu)先考慮的是安全問(wèn)題,想要安全就必須私有化部署,私有化部署成本又受不了,部署小參數(shù)的模型又有一點(diǎn)雞肋。前兩年我們?yōu)榭蛻?hù)所做的AI項(xiàng)目都會(huì)遇到這樣的問(wèn)題,很多項(xiàng)目因此拖延到現(xiàn)在。”

為什么DeepSeek在B端或者G端落地受政府和企業(yè)的歡迎,就是因?yàn)榻鉀Q了“不可能三角”的問(wèn)題,但DeepSeek的應(yīng)用還是有很多門(mén)檻,比如安全問(wèn)題,國(guó)產(chǎn)化技術(shù)路線(xiàn)等,這不是通過(guò)簡(jiǎn)單部署可以一次性解決的問(wèn)題,目前很多一體機(jī)遍地開(kāi)花,但一體機(jī)一般只能服務(wù)于一個(gè)應(yīng)用或者一個(gè)業(yè)務(wù)。

端側(cè)AI,越接近上層應(yīng)用問(wèn)題越多

基礎(chǔ)設(shè)施的穩(wěn)定和高效,是端側(cè)AI生態(tài)賴(lài)以生長(zhǎng)的基礎(chǔ)。大模型仍處于產(chǎn)業(yè)發(fā)展的早期階段,技術(shù)的演進(jìn)呈現(xiàn)出上下影響、交替迭代的趨勢(shì),AI應(yīng)用爆發(fā)對(duì)模型性能和模型之下的基礎(chǔ)設(shè)施,以及AI應(yīng)用開(kāi)發(fā)工具,都提出了非常高的要求,這三大均處于高速演進(jìn)過(guò)程當(dāng)中,

以中科曙光為例,2025年2月,中科曙光推出DeepAI深算智能引擎方案,集成了GPU開(kāi)發(fā)工具套件、AI基礎(chǔ)軟件棧和大模型應(yīng)用開(kāi)發(fā)平臺(tái),目的是為了讓國(guó)產(chǎn)AI算力更適用、更好用,賦能從十億級(jí)模型端側(cè)推理到千億級(jí)模型云端訓(xùn)練全場(chǎng)景需求。

通過(guò)全面兼容CUDA、Rcom雙棧生態(tài),DeepAI深算智能引擎支持2000+算子,對(duì)標(biāo)CUDA的算子覆蓋度已超99%,并可通過(guò)手動(dòng)算子優(yōu)化、編譯優(yōu)化和匯編指令級(jí)優(yōu)化,國(guó)產(chǎn)GPU單卡訓(xùn)推性能提升可達(dá)1倍以上。

劉偉光表示,全世界的大語(yǔ)言模型幾乎以每?jī)芍転橐粋€(gè)時(shí)間單位演進(jìn),基礎(chǔ)模型仍然是整個(gè)AI應(yīng)用生態(tài)最核心的引擎,通過(guò)提供深度的推理能力、多模態(tài)理解和交互能力,支持多樣化、高質(zhì)量服務(wù),基于不同類(lèi)型尺寸模型滿(mǎn)足復(fù)雜、輕型以及更多探索型需求。

“很多客戶(hù)在探索AI應(yīng)用過(guò)程中發(fā)現(xiàn),支撐大語(yǔ)言模型的基礎(chǔ)設(shè)施能力,特別是推理服務(wù)能力,是保障AI應(yīng)用服務(wù)順暢、平滑、穩(wěn)定、高效運(yùn)行的重要基礎(chǔ)設(shè)施,云計(jì)算也在慢慢為AI所改變,讓所有AI訓(xùn)練、推理、應(yīng)用能夠在云基礎(chǔ)設(shè)施上進(jìn)行更穩(wěn)定平滑高效運(yùn)行?!?/p>

他還表示,當(dāng)模型能力足夠強(qiáng)大,AI應(yīng)用呼之欲出的時(shí)候,更多客戶(hù)需要更完整、更完備的工具鏈基于模型進(jìn)行AI應(yīng)用開(kāi)發(fā),AI開(kāi)發(fā)工具是連接大語(yǔ)言模型和真實(shí)應(yīng)用的重要橋梁,客戶(hù)需要功能齊全、生態(tài)豐富、靈活部署的工具,加速應(yīng)用開(kāi)發(fā)。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

中科曙光DeepAI深算智能引擎也內(nèi)置了DAP企業(yè)級(jí)全棧AI應(yīng)用開(kāi)發(fā)平臺(tái),提供多模型開(kāi)放納管、高性能推理服務(wù)、知識(shí)融合增強(qiáng)、智能體可視化編排、智能數(shù)據(jù)分析等功能,企業(yè)客戶(hù)在國(guó)產(chǎn)AI算力底座可一站式跑通DeepSeek、阿里QwQ等大模型應(yīng)用。

孫玉昆認(rèn)為,面向AI的開(kāi)發(fā)者面臨著兩大核心挑戰(zhàn):一是算力不足,成本高。好的模型可能需要萬(wàn)卡或者更大規(guī)模的集群,現(xiàn)在海外算力基本上不行,國(guó)內(nèi)算力生態(tài)還在共同培養(yǎng)。二是開(kāi)發(fā)工具鏈支持不足,開(kāi)發(fā)環(huán)境配置復(fù)雜。端側(cè)和云端的環(huán)境不統(tǒng)一,難以滿(mǎn)足大模型、智能體等應(yīng)用快速迭代的需求。

他補(bǔ)充表示,部署開(kāi)發(fā)環(huán)境流程煩瑣,很多初學(xué)者就倒在了做人工智能開(kāi)發(fā)的第一關(guān),大模型都是基于Linux開(kāi)源又穩(wěn)定的系統(tǒng)服務(wù)器訓(xùn)練出來(lái)的,很多人工智能的開(kāi)發(fā)框架基于Linux開(kāi)發(fā),在實(shí)際開(kāi)發(fā)中,開(kāi)發(fā)者首先是要完成跨平臺(tái)開(kāi)發(fā),通常需要在其他操作系統(tǒng)上通過(guò)虛擬化方式運(yùn)行Linux,這個(gè)過(guò)程就會(huì)面臨很多問(wèn)題,比如安裝配置復(fù)雜,兼容性問(wèn)題,工具鏈和依賴(lài)庫(kù)的版本差異,這些工具不好導(dǎo)致的問(wèn)題,不僅增加了開(kāi)發(fā)的復(fù)雜性,開(kāi)發(fā)者也消耗了很多無(wú)謂的精力。

此外,即使開(kāi)發(fā)者辛萬(wàn)苦地把環(huán)境配置好了,但性能和原生Linux相比也有差異,不僅是CPU計(jì)算性能,GPU的模型訓(xùn)練也有一些損失,用Windows電腦做小模型訓(xùn)練的性能不達(dá)標(biāo),用原生Linux系統(tǒng)則能實(shí)現(xiàn)更高的性能水平,所以做人工智能開(kāi)發(fā)必須掌握Linux。

愛(ài)簿智能也推出了自己的AIBOOK 算力本,該產(chǎn)品以50TOPS端側(cè)算力為核心,有意將AI算力本和市場(chǎng)已有的AI PC區(qū)分開(kāi)。

在孫玉昆看來(lái),不同于AIPC,AI算力本是基于原生Linux開(kāi)發(fā)環(huán)境的端側(cè)AI開(kāi)發(fā)工具,與市面主流AIPC的主要差異包括基于Linux內(nèi)核的AI原生操作系統(tǒng),預(yù)裝了各種實(shí)用AI應(yīng)用,還預(yù)置了編程開(kāi)發(fā)環(huán)境和工具,做到AI的“開(kāi)箱即用”,同時(shí)具備“端云一體”的AI算力,端側(cè)是指AIBOOK本地計(jì)算,云側(cè)是摩爾線(xiàn)程夸娥云計(jì)算,端云一體組合覆蓋從大模型部署到應(yīng)用、微調(diào)及訓(xùn)練的AI開(kāi)發(fā)全場(chǎng)景。

云還是端,沒(méi)有絕對(duì)的好與壞

算力在云還是在端,取決于客戶(hù)的業(yè)務(wù)需求,相較于以往端側(cè)推理的限制,目前大量高質(zhì)量小模型的涌現(xiàn),讓推理工作負(fù)載再次受到關(guān)注,云端算力和終端算力生態(tài)將長(zhǎng)期持續(xù)演進(jìn),兩者并不矛盾,更多是扮演大模型產(chǎn)業(yè)的不同角色,不少?gòu)S商也在布局端云一體。

杰文斯悖論告訴我們,技術(shù)效率提升反而會(huì)刺激需求擴(kuò)張。例如,DeepSeek通過(guò)FP8混合精度訓(xùn)練、動(dòng)態(tài)稀疏算法等技術(shù)將單次訓(xùn)練成本降低53%(至557.6萬(wàn)美元),但頭部企業(yè)因此增加并行實(shí)驗(yàn)次數(shù)(從年均3次躍升至28次),反而推高全球算力芯片采購(gòu)量。類(lèi)似現(xiàn)象在能源領(lǐng)域也曾出現(xiàn)(如蒸汽機(jī)效率提升后煤炭消耗激增)。在AI領(lǐng)域,推理成本降低將加速應(yīng)用場(chǎng)景泛化(如金融、醫(yī)療、智能制造),最終導(dǎo)致算力總需求增長(zhǎng)。

黃仁勛在英偉達(dá)GTC2025上表示:ChatGPT是靠預(yù)測(cè)下一個(gè)tokens、大概率出現(xiàn)幻覺(jué)的生成式AI,而現(xiàn)在已經(jīng)走進(jìn)了Deep Research、Manus這樣的agentic AI應(yīng)用,上一個(gè)token是下一個(gè)token生成時(shí)輸入的上下文、是感知、規(guī)劃、行動(dòng)的一步步推理,由于每一層計(jì)算都不同,所需要的tokens會(huì)百倍增長(zhǎng)。推理模型需要更多的計(jì)算,因?yàn)槟P透鼜?fù)雜。R1的尺寸是6800億個(gè)參數(shù),它的下一代版本可能有數(shù)萬(wàn)億個(gè)參數(shù)。Agentic AI應(yīng)用是無(wú)數(shù)次調(diào)用類(lèi)似DeepSeek-R1做推理的過(guò)程,需要的計(jì)算只會(huì)更多。

高通發(fā)布的白皮書(shū)也提到,AI推理功能在終端側(cè)的廣泛普及賦能打造了豐富的生成式AI應(yīng)用和助手。文檔摘要、AI圖像生成和編輯以及實(shí)時(shí)語(yǔ)言翻譯現(xiàn)在已成為常見(jiàn)功能。影像方面的應(yīng)用可以利用AI進(jìn)行計(jì)算攝影、物體識(shí)別和實(shí)時(shí)場(chǎng)景優(yōu)化。

這之后迎來(lái)了多模態(tài)應(yīng)用的發(fā)展,這類(lèi)應(yīng)用結(jié)合多種數(shù)據(jù)類(lèi)型(文本、視覺(jué)、音頻和傳感器輸入),以提供更豐富、更具情境感知能力且更加個(gè)性化的體驗(yàn)。高通AI引擎結(jié)合了定制NPU、CPU和GPU的能力,能夠在終端側(cè)優(yōu)化此類(lèi)任務(wù),使AI助手能夠在不同溝通模式間切換,并生成多模態(tài)輸出。

智能體AI(Agentic AI)是下一代用戶(hù)交互的核心。AI系統(tǒng)能夠通過(guò)預(yù)測(cè)用戶(hù)需求,并在終端和應(yīng)用內(nèi)主動(dòng)執(zhí)行復(fù)雜工作流,進(jìn)行決策和管理任務(wù)。一些實(shí)時(shí)AI處理任務(wù)的智能體,可在終端側(cè)安全運(yùn)行,同時(shí)依靠個(gè)人知識(shí)圖譜準(zhǔn)確定義用戶(hù)偏好和需求,無(wú)需依賴(lài)云端。

愛(ài)簿智能看好AI端側(cè)的發(fā)展。但認(rèn)為不會(huì)顛覆云計(jì)算主導(dǎo)的AI開(kāi)發(fā)范式,孫玉昆提到,端云協(xié)同是未來(lái)的主流趨勢(shì),AI計(jì)算正經(jīng)歷從純?cè)贫讼?云-邊-端"協(xié)同的范式轉(zhuǎn)移,5G、邊緣計(jì)算等技術(shù)使分布式計(jì)算延遲降低到可接受范圍,端側(cè)AI芯片算力已達(dá)50TOPS及以上,可承擔(dān)更復(fù)雜任務(wù),而模型壓縮技術(shù)(如蒸餾、量化)使7B這類(lèi)小參數(shù)模型在端側(cè)達(dá)到接近云端13B模型的能力水平。

“通過(guò)輕量化模型突破端側(cè)算力瓶頸,結(jié)合端云一體架構(gòu)實(shí)現(xiàn)能力的彈性擴(kuò)展,正在定義AI算力的新范式。在這一架構(gòu)下,用戶(hù)將獲得AI的‘無(wú)縫體驗(yàn)’,日常場(chǎng)景由端側(cè)快速響應(yīng),復(fù)雜任務(wù)延伸至云端,二者協(xié)同工作升級(jí)智能體驗(yàn)?!彼f(shuō)

劉偉光則表示,AI應(yīng)用構(gòu)建方式非常多樣化,既可以在公共云上進(jìn)行開(kāi)發(fā)部署,阿里云也支持本地化服務(wù),為了更好服務(wù)本地服務(wù),特別滿(mǎn)足部分政企客戶(hù)監(jiān)管性要求,阿里云推出了百煉專(zhuān)署版,支持一云多芯異構(gòu)計(jì)算等客戶(hù)需求,

他表示,從算力資源到組件調(diào)用,直接影響AI實(shí)際應(yīng)用的效果,阿里云內(nèi)部提出了全棧AI,不僅是大模型,也不僅是云下技術(shù)架構(gòu)層,包含底層的異構(gòu)算力、模型服務(wù)平臺(tái)、百煉平臺(tái),以及上面所有面向客戶(hù)服務(wù),技術(shù)架構(gòu)層面計(jì)算資源需求日益增長(zhǎng),GPU需求增長(zhǎng)速度遠(yuǎn)遠(yuǎn)高于傳統(tǒng)CPU增長(zhǎng),遍布全球AI計(jì)算集群會(huì)成為未來(lái)新的剛需,這些集群支持大規(guī)模的訓(xùn)練任務(wù),并且同時(shí)滿(mǎn)足實(shí)時(shí)的推理應(yīng)用的需求。(本文首發(fā)于鈦媒體APP,作者 | 張帥,編輯 | 蓋虹達(dá))