2025年是AI應用爆發(fā)的元年,當全球AI競賽步入“中國時刻”,一場深刻的技術變革正悄然改寫產(chǎn)業(yè)格局。在此關鍵節(jié)點,行業(yè)面臨核心命題:如何跨越AI技術到規(guī)?;瘧玫镍櫆希肯乱粋€顛覆性的AI超級應用將誕生于何處?

4月18日,由36氪主辦的2025 AI Partner大會于上海模速空間盛大啟幕。本次大會以“Super APP來了”為主題,聚焦AI應用對千行百業(yè)的顛覆性變革。大會分為“Super App來了”和“誰是下一個超級應用”兩大篇章,覆蓋“在AI世界中長大”“2025卷AI就卷超級應用”等七大話題,涵蓋10+場主題演講、3場圓桌對話與兩大優(yōu)秀AI案例企業(yè)名冊發(fā)布環(huán)節(jié),深度剖析AI技術如何重構商業(yè)邏輯、重塑產(chǎn)業(yè)格局,探索AI超級應用帶來的無限可能。

當日,無問芯穹首席解決方案架構師劉川林帶來了《以智能底座重構AI產(chǎn)業(yè)生態(tài)》的主題分享。

以下為劉川林演講內容,經(jīng)36氪整理編輯:

各位領導、嘉賓,下午好!非常榮幸受邀參與 36 氪的活動。作為專注支撐 AI 超級應用的AI算力運營商與基礎設施建造者,無問芯穹的技術能力覆蓋從算力優(yōu)化、模型開發(fā)到算法調優(yōu)的全鏈條,致力于為中國 AI 市場構建堅實的技術底座,助力更多創(chuàng)新應用破局而生。

打開網(wǎng)易新聞 查看精彩圖片

無問芯穹首席解決方案架構師劉川林

今天的分享將圍繞三個核心展開:第一塊Infra 層的趨勢變革:探討模型開發(fā)、訓練、推理環(huán)節(jié)的技術演進;第二塊無問芯穹的實踐路徑:解析我們如何通過技術創(chuàng)新培育 AI 超級應用的生長土壤;第三塊未來展望:挖掘行業(yè)需求,推動跨時代 AI 原生應用的誕生。

回顧人工智能的發(fā)展歷程,每一次重大突破都源于關鍵要素的升級。自GPT-3橫空出世以來,在Scaling Law作用下,算法和算力都得到了空前的發(fā)展,而隨著公開可用的優(yōu)質文本數(shù)據(jù)逐漸耗盡,Ilya就曾在去年預言,預訓練時代即將結束。

以GPT系列為例,從GPT-4到GPT-5的迭代周期顯著拉長,預訓練數(shù)據(jù)的稀缺性愈發(fā)凸顯。而DeepSeek的出現(xiàn),帶來了全新的技術范式——通過R1強化學習,將訓練、推理、對齊形成閉環(huán),實現(xiàn)模型性能的二次飛躍。其技術路徑可概括為:冷啟動階段:基于R1 Zero模型,結合Reward Model和對齊算法完成初步強化;數(shù)據(jù)優(yōu)化階段:融入優(yōu)質行業(yè)數(shù)據(jù)與通用數(shù)據(jù)集,提升模型泛化能力;閉環(huán)迭代:通過 “訓練 - 推理 - 對齊 - 再訓練” 的循環(huán),持續(xù)優(yōu)化模型表現(xiàn)。

這一變革對 Infra 提出了雙重挑戰(zhàn):底層支撐:需構建適配強化學習的AI Infra系統(tǒng),滿足大模型開發(fā)需求;應用賦能:通過Infra優(yōu)化,幫助AI應用實現(xiàn)更低延遲、更高效率、更優(yōu)成本,提升商業(yè)價(ROI)。

作為清華電子系孵化的企業(yè),我們依托軟硬件聯(lián)合優(yōu)化技術實力,構建了貫穿上下游的技術生態(tài):算力層:融合多家國產(chǎn)芯片,通過異構計算提供多樣化算力支持;平臺層(PaaS):打造高效易用的算力管理平臺,提升資源調度效率;服務層(MaaS):提供穩(wěn)定的模型即服務,降低應用開發(fā)門檻。

在云端服務中,我們堅持“三位一體”策略:多元異構適配:兼容不同架構芯片,保障算力彈性供給;軟硬協(xié)同優(yōu)化:深度整合硬件與軟件,釋放算力潛能;服務效能提升:通過智能化調度,確保資源高效利用。

受中美技術博弈與國產(chǎn)芯片崛起的影響,未來3年,國產(chǎn)芯片將成為大模型訓練與推理的重要載體。為此,我們在上海等地落地千卡級異構混訓任務,攻克國產(chǎn)芯片兼容性難題,構建“國產(chǎn)算力 + 國產(chǎn)應用”的完整生態(tài)。通過統(tǒng)一調度框架,實現(xiàn)不同芯片間的協(xié)同計算,顯著提升訓練效率。

針對 DeepSeek 引發(fā)的計算范式變革,我們從三個維度優(yōu)化工程架構:訓練框架創(chuàng)新:自研適配 LLM(語言模型)、MOE(混合專家模型)的訓練框架,支持更高性能訓練,并兼容多類型加速卡;通信效率優(yōu)化:通過計算與通信的深度重疊,減少數(shù)據(jù)傳輸延遲,在 MOE 模型訓練中降低資源占用;動態(tài)資源分配:基于MOE模型特性,實現(xiàn)專家模型的智能調度與PD 分離,提升整體架構靈活性。

以生數(shù)科技為例,我們?yōu)槠涠嗄B(tài)模型訓練提供一站式服務:環(huán)境秒級啟動:快速部署訓練環(huán)境,縮短項目周期;自動化容錯:實時監(jiān)控訓練過程,自動處理異常情況;推理效率優(yōu)化:通過底層加速,提升模型部署后的響應速度。

目前,我們已在上海模速空間落地算力生態(tài)服務平臺,并在浙江省打造政企合作標桿項目,通過技術支持,降低AI企業(yè)的創(chuàng)新成本。

在AI應用場景中,推理效率直接影響用戶體驗與商業(yè)價值。我們針對大語言模型與文生圖模型,推出定制化解決方案:以DeepSeek R1為例,其MOE架構與FP8精度對部署資源要求極高。我們通過以下優(yōu)化實現(xiàn)效率突破:工程化改造:重構服務框架,將推理速度提升至 30 Tokens / 秒;穩(wěn)定性保障:優(yōu)化調度算法,確保高并發(fā)場景下服務零中斷;效果對齊:在加速同時保持與官方模型的生成精度一致。用戶可通過我們的平臺一鍵調用R1服務,大幅降低部署門檻。

針對AIGC應用的流量波動問題,我們基于 ComfyUI 構建接口化服務。削峰平谷:動態(tài)分配算力資源,避免流量低谷期的資源浪費;架構解耦:通過標準化接口兼容新模型與框架,減少工程團隊重復開發(fā);多模態(tài)支持:整合視頻、語音、圖文等多模態(tài)能力,實現(xiàn)全產(chǎn)業(yè)鏈無縫對接。實際案例顯示,某電商生圖企業(yè)采用我們的服務后,降低了成本,提升了推理速度,并且提升服務效能。

AI 技術的快速迭代中,唯有把握“變”與“不變”的平衡,方能搶占先機:變:技術架構、計算范式、模型形態(tài)持續(xù)演進;不變:用戶對高效、智能、個性化服務的核心需求始終存在。

我們期待與各行業(yè)專家深入交流,挖掘真實場景需求,共同推動 AI 原生應用的創(chuàng)新突破。正如今天分享的嘉賓們所展現(xiàn)的,無論是電商商拍、教育賦能還是具身智能,每一個細分領域都蘊藏著誕生超級應用的潛力。我們愿以算力基礎設施為舟,與合作伙伴攜手,駛向 AI 產(chǎn)業(yè)的深水區(qū),打造跨時代的AI原生APP。