打開網(wǎng)易新聞 查看精彩圖片

作者 | 凌敏

自 ChatGPT 發(fā)布以來,圍繞大模型展開的競賽從未停歇。從最初的卷參數(shù)到卷落地應用,大家的關注點逐漸趨向務實。然而,高昂的算力成本、碎片化的 AI 應用生態(tài),始終是扎在企業(yè)喉嚨里的一根“魚刺”——企業(yè)投入了大量資源,卻發(fā)現(xiàn)實際收益與預期相差甚遠,難以走出“ROI 困境”。

2025 年,隨著 MCP(Model Context Protocol,模型上下文協(xié)議)和 A2A(Agent2Agent,智能體交互協(xié)議)的興起,大模型應用開發(fā)迎來了新的轉折點。MCP 協(xié)議通過標準化接口打破數(shù)據(jù)孤島,讓大模型精準調用外部資源,數(shù)據(jù)能夠在不同系統(tǒng)和平臺之間自由流動;A2A 協(xié)議則進一步推動了 Agent 之間的無縫交互,讓不同的 Agent 進行協(xié)作與交流,形成有機整體。

從 MCP 到 A2A,不難看出,“開放”已經(jīng)成為大模型應用生態(tài)新的關鍵詞。這種開放性不僅體現(xiàn)在技術層面的互聯(lián)互通,更體現(xiàn)在理念層面的協(xié)同合作。從更宏觀的角度來看,這一轉變也反映了技術發(fā)展的普遍規(guī)律:從技術的狂熱到理性的應用落地,從孤立的技術創(chuàng)新到生態(tài)系統(tǒng)的協(xié)同進化。

過去,大模型的價值被過度聚焦于“參數(shù)規(guī)?!焙汀皢吸c能力”,如今,MCP 和 A2A 不僅解決了 AI 應用間的互聯(lián)互通問題,也重新洗牌大模型生態(tài)的競爭格局,大模型應用開發(fā)不再是傳統(tǒng)的“單兵作戰(zhàn)”模式,而是彼此緊密關聯(lián)。這也意味著,企業(yè) CTO 們需要重新審視 AI 的價值——不再單純地追求模型規(guī)模,盲目 All in,而是通過一個能鏈接多元 AI 能力的平臺,真正將 AI 能力有機嵌入現(xiàn)有業(yè)務流程和生產(chǎn)系統(tǒng),并通過協(xié)同和標準化的方式提升整體效率,用最少的算力解決最關鍵的問題,讓大模型落地走出“ROI 困境”。

算力浪費與場景錯配,

正浪費企業(yè)千萬預算

在過去很長一段時間,大模型應用落地難以走出高投入、低產(chǎn)出的瓶頸。這一現(xiàn)象折射出 AI 產(chǎn)業(yè)發(fā)展的深層次矛盾:其一,算力浪費現(xiàn)象嚴重,有數(shù)據(jù)顯示,企業(yè)級通用算力中心的利用率僅在 10%-15% 之間,大量的算力資源處于閑置狀態(tài);其二,場景錯配,模型性能與實際業(yè)務場景需求并不匹配。

一個典型的現(xiàn)象就是“用大炮打蚊子”,一些企業(yè)過度依賴通用大模型能力,將其應用于輕量級任務場景中。此外,由于業(yè)務場景存在特殊性,也有不少企業(yè)深陷兩難困境:若采用大模型,就要承受高昂的算力成本和較長的推理時間;若退而求其次采用小模型,又難以滿足業(yè)務需求。在那些需要專業(yè)領域知識的業(yè)務場景中,這一矛盾表現(xiàn)得尤為突出。

以招聘行業(yè)的人崗匹配場景為例,企業(yè)既需要模型具備深度推理能力,來理解簡歷與職位描述之間的復雜關聯(lián),又對響應速度有一定的要求。尤其是在高并發(fā)的用戶需求下,通用大模型過長的推理時間嚴重影響用戶體驗。

為了更好地平衡性能與效率,模型蒸餾技術近幾年逐漸成為行業(yè)關注焦點, 隨著今年年初 DeepSeek-R1 的推出,該技術的應用價值愈發(fā)凸顯。尤其是在處理復雜推理任務方面,模型蒸餾技術能捕捉 DeepSeek-R1 的“思維鏈”模式,使輕量化學生模型能夠繼承其推理能力,而非僅僅模仿輸出結果。

以智聯(lián)招聘為例,其采用 6000 多億參數(shù)的 DeepSeek-R1 作為教師模型,將處理人崗匹配任務時的思維鏈和決策邏輯沉淀下來,通過百度智能云千帆模型開發(fā)平臺對教師模型做蒸餾,遷移到百億參數(shù)的 ERNIE Speed 模型(即學生模型)。不僅達到媲美教師模型的效果(DeepSeek-R1 的推理鏈路結果準確率達 85%,學生模型準確率達到 81% 以上),還將推理速度提升到業(yè)務可接受的水平,相較 DeepSeek-R1 滿血版,速度更是快了 1 倍,而成本僅為原來的三成。

當前,企業(yè)在技術路線上通常會采用兩種方式實現(xiàn)模型蒸餾:一是完全自建從基礎設施、GPU 到訓練框架的完整技術體系,二是采用千帆模型開發(fā)平臺或其他廠商提供的平臺化解決方案。智聯(lián)招聘 AI 應用專家姚思佳表示,智聯(lián)招聘內部擁有一套訓練框架,之所以最終通過千帆模型開發(fā)平臺實現(xiàn)模型蒸餾,主要有三點考量:

  • 第一,千帆模型開發(fā)平臺在模型蒸餾領域提供了業(yè)內領先的完整支持,整個技術鏈條都圍繞著蒸餾場景進行了深度優(yōu)化;

  • 第二,與自行購買和維護硬件相比,千帆模型開發(fā)平臺在成本控制方面也具有明顯優(yōu)勢,在資源分配上也更加靈活;

  • 第三,百度專業(yè)的解決方案團隊能深入業(yè)務場景,能快速理解招聘領域對‘精準匹配’與‘高并發(fā)響應’的核心訴求,與企業(yè)共同探討解決方案。

據(jù)姚思佳介紹,下一步,智聯(lián)招聘還將繼續(xù)扮演 AI+ 招聘場景的拓荒者角色,利用千帆平臺的基于強化學習的微調技術(RFT)進一步提升模型性能?!耙环矫嫣剿鹘處熌P褪欠窨梢該碛羞M一步的提升空間,另一方面,看其是否可以通過更好的獎勵機制,優(yōu)化已經(jīng)蒸餾過的學生模型,提升模型準確率?!睋?jù)悉,千帆是國內首個把 RFT、GRPO 等領先強化學習方法產(chǎn)品化的平臺。通過將這些前沿強化學習方法轉化為可落地的解決方案,千帆為更多像智聯(lián)招聘這樣的企業(yè),在模型性能優(yōu)化上提供了更多可能性。

不過模型蒸餾技術優(yōu)化的終歸只是單一模型性能,在一些復雜業(yè)務場景下,還需要將多樣化的 AI 能力與場景進行精準匹配。

以智能手機為例,在通話助手這類意圖識別場景中,通常采用輕量級模型,快速識別出用戶的問題;在天氣查詢、新聞資訊獲取這類通識問答場景中,通常采用中量級模型,快速給出用戶準確且具有一定信息量的回答;在數(shù)據(jù)分析、邏輯推理這類需要深度思考的場景中,通常采用重量級模型。

這也意味著,一臺智能手機需要在不同用戶需求場景下,靈活調用多款大模型。對手機廠商而言,一面是較高的模型選擇成本,一面是不同模型的接口協(xié)議等復雜調用流程。

針對這些行業(yè)痛點,千帆模型開發(fā)平臺對模型路由接口做了產(chǎn)品化,與直接使用原廠模型相比,其提供了定制開發(fā)、開盒即用的 API 調用產(chǎn)品能力,能夠幫助企業(yè)節(jié)省工程化工作量和開發(fā)時間,降低成本。此外,千帆模型開發(fā)平臺還能支持大規(guī)模用戶的靈活調用,面對高頻、高并發(fā)調用需求,也能做到又快又穩(wěn)定。

在模型層面,模型蒸餾、多模型調用等技術能力正幫助越來越多的企業(yè)優(yōu)化資源分配,讓 AI 能力精準匹配業(yè)務場景的同時,還能降低成本。在應用層面,時下備受業(yè)界關注的 MCP、A2A 則進一步打下 AI 試錯成本,幫助企業(yè)優(yōu)化應用協(xié)作范式的同時,也改變了傳統(tǒng) Agent 開發(fā)中“重復造輪子”的低效模式。

從模型到應用的一套“組合拳”,才是助力大模型落地走出“ROI 困境”的滿分答卷。

從封閉到開放,

AI 試錯成本一降再降

從 2023 年起,AI 應用落地的關鍵詞就已經(jīng)逐漸變成 Agent,到了 2024 年,幾乎所有企業(yè)都在探討 Agent 的應用與發(fā)展。但實際上,彼時的 Agent 缺乏真正的規(guī)劃能力,更多是基于工作流的角度,將大模型與基礎應用進行連接,通過專家視角的規(guī)則來拼接或流程化組件。

隨著近期 MCP 和 A2A 兩大協(xié)議興起,2025 年也成為真正的“Agent 元年”。尤其是 MCP,其對 AI 領域帶來的影響不亞于當年互聯(lián)網(wǎng)的 TCP/IP 協(xié)議。

必優(yōu)科技 CEO 周澤安在接受 InfoQ 采訪時表示,MCP 為 AI 領域帶來的核心價值體現(xiàn)在三個維度:

  • 第一,MCP 實現(xiàn)了大模型工具調用的標準化。在過去,每家企業(yè)都有自己的 Function Call 實現(xiàn),彼此間的差異巨大。MCP 通過建立統(tǒng)一的接入標準,使得客戶端與服務端之間的應用調度方案實現(xiàn)了真正的標準化。此外,通過 MCP,不僅可以在支持 Function Call 的大模型之間實現(xiàn)對接,還能與不具備該功能的大模型進行交互。

  • 第二,MCP 解決了工具協(xié)同難題。MCP 協(xié)議的統(tǒng)一標準使得 Agent 服務的構建變得更加多元。開發(fā)者不僅需要考慮自身擁有的 Agent 和 MCP 服務,還可以思考如何整合外部能力,以實現(xiàn)更強大的 Agent 功能。

  • 第三,MCP 能通過大模型串聯(lián)起整個上下文進行控制,交互形態(tài)更加友好。在搭建流程時,它可以使用更廣泛的數(shù)據(jù)源,解決一些此前無法實現(xiàn)的復雜任務。

“總的來說,MCP 協(xié)議顯著降低企業(yè)采用 AI 技術的門檻。過去企業(yè)在接入 Agent 時技術對接流程復雜,如今,企業(yè)不再需要深入理解復雜的技術實現(xiàn)細節(jié),只需明確自身的業(yè)務需求即可?!敝軡砂脖硎?,必優(yōu)科技已經(jīng)將自研的人力資源行業(yè)垂類大模型“伯樂”的文檔處理能力通過 MCP 協(xié)議全面開放,包括合同、簡歷和 PPT 等,并成為首批將 MCP 組件上線到千帆應用開發(fā)平臺的企業(yè)開發(fā)者。目前,任何企業(yè)或個人開發(fā)者都可以在千帆平臺上直接調用其專業(yè)能力。

“百度將幫助開發(fā)者積極全面擁抱 MCP”。在 4 月 25 日舉辦的 Create2025 百度 AI 開發(fā)者大會上,千帆平臺正式推出企業(yè)級 MCP 服務,百度創(chuàng)始人李彥宏現(xiàn)場演示了千帆平臺擁抱 MCP 的案例,開發(fā)者在創(chuàng)建 Agent 時可以靈活接入包括百度 AI 搜索、地圖、文庫等在內的 1000 個 MCP Server。此外,千帆還推出了低代碼創(chuàng)建 MCP Server 的工具,開發(fā)者也可以在千帆上輕松開發(fā)自己的 MCP Server,一鍵發(fā)布到千帆 MCP 廣場。這些 MCP Server 也會被百度搜索及時索引,從而被更多的開發(fā)者發(fā)現(xiàn)并使用。

打開網(wǎng)易新聞 查看精彩圖片

事實上,千帆在 MCP 協(xié)議興起之前,就已經(jīng)在持續(xù)解決 AI 落地最后一公里的難題,幫助企業(yè)高效、低門檻享受到 AI 技術紅利,并為多個行業(yè)提供成熟的解決方案。

例如在智能家居行業(yè),過去企業(yè)普遍面臨一個共性難題:如何為海量產(chǎn)品型號提供精準的智能服務?隨著大模型應用加速落地,越來越多的企業(yè)開始通過 Agent,快速為用戶提供精準且個性化的回答。但與此同時,也帶來了一個新的難題:如何開發(fā)和管理眾多 Agent?智能家居品牌通常旗下?lián)碛斜姸嗖煌a(chǎn)品品類和型號,如果為每款產(chǎn)品單獨搭建一個 Agent,不僅開發(fā)成本高,后期的管理、維護成本也不容小覷。

以某智能家居頭部品牌為例,其通過百度智能云千帆應用開發(fā)平臺將文件名作為獨立切片,并將文件名切片信息嵌入到每個細分切片中。無需為每款產(chǎn)品單獨搭建 Agent,只需要梳理好對應的知識庫,并定義好產(chǎn)品型號名稱,即可通過千帆平臺的 RAG 框架自動解析策略,實現(xiàn)產(chǎn)品型號與知識點的精準匹配。

千帆應用開發(fā)平臺還為該品牌提供了一套運營工具,構建一個能持續(xù)進化的智能中樞——通過數(shù)據(jù)回流功能,所有用戶交互記錄都轉化為優(yōu)化素材,運營人員可以實時查看高頻問題,對未覆蓋的知識點進行即時干預,形成“運營 - 反饋 - 優(yōu)化”的閉環(huán)。此外,千帆應用開發(fā)平臺與小度 AI 助手聯(lián)合共建了語音交互框架,依托這套框架,品牌能夠讓硬件與用戶直接“對話”,實現(xiàn)更加自然、高效且個性化的交互體驗。

從 MCP 到 A2A,開放已經(jīng)成為大模型應用生態(tài)新的關鍵詞。而開放,也是千帆平臺的初心——從 2023 年發(fā)布的第一天起,千帆就以最開放的姿態(tài),接入了豐富的三方大模型。目前,千帆已經(jīng)接入超 30 家模型廠商的 100 多個模型,覆蓋文本、圖像、深度推理等 11 類能力,如 DeepSeek、LLaMA、通義、Vidu 等三方模型;同時提供全系列文心大模型,包括最新發(fā)布的原生多模態(tài)模型文心 4.5 Turbo 和深度思考模型文心 X1 Turbo,以及稍早前發(fā)布的深度思考模型文心 X1。

對于那些希望快速實現(xiàn) AI 技術落地的企業(yè)來說,百度智能云正逐漸成為首選。市場數(shù)據(jù)就是最好的佐證。目前,千帆平臺已服務超 40 萬客戶,在央企滲透率超過 60%。另據(jù)中國大模型中標項目監(jiān)測與洞察報告 (2025Q1),百度在第一季度實現(xiàn)了大模型中標項目數(shù)量和中標金額上的雙第一:中標 19 個大模型招標項目,項目披露金額超過 4.5 億元,且中標的大模型項目幾乎都來自能源、金融等行業(yè)的央國企客戶。

百度智能云的成績單也向外界傳遞出一個信號:在這場 AI 技術落地的持久戰(zhàn)中,唯有那些真正理解產(chǎn)業(yè)痛點、能夠幫助企業(yè)降低試錯成本的方案,才最具生命力。