2025年3月20日,在第三屆AI定義汽車論壇上,艾博連科技(上海)有限公司 CEO周恩澤指出,當(dāng)前智能座艙市場機遇與挑戰(zhàn)并存。雖然乘用車智能座艙標配搭載率超 70%,新能源汽車接近標配,超六成用戶愿為其支付溢價,但也面臨功能上線未提升體驗、系統(tǒng)研發(fā)與用戶動態(tài)需求不匹配、系統(tǒng)割裂與生態(tài)協(xié)同不足等困局。

為突破這些困局,艾博連提出利用 AI 生成力、動態(tài)交互和情感計算力的破局方案,并推出基于操作系統(tǒng)級的系統(tǒng)解決方案架構(gòu)。該架構(gòu)包含基礎(chǔ)層的場景模式生成工廠、交互層的零層級交互桌面、感知層的端測語音基座模型。此外,周恩澤還提出采用用戶付費的場景訂閱模式和生態(tài)服務(wù)分成模式,與車企共同創(chuàng)新商業(yè)模式。他表示,希望與行業(yè)共同探索,重新定義輪子上的生活。

周恩澤 | 艾博連科技(上海)有限公司CEO
打開網(wǎng)易新聞 查看精彩圖片
周恩澤 | 艾博連科技(上海)有限公司CEO

以下為演講內(nèi)容整理:

智能汽車時代的困局

近年來,智能化已成為汽車行業(yè)發(fā)展的焦點,整個產(chǎn)業(yè)鏈上下游的投入亦頗為有效。據(jù)觀察,2024年,乘用車市場中智能座艙作為標配的配置率已超過70%,而在新能源汽車領(lǐng)域,其配置狀態(tài)已近乎標配。與此同時,用戶需求亦呈現(xiàn)出顯著增長態(tài)勢,眾多用戶愈發(fā)傾向于在智能座艙上進行付費。

圖源:演講嘉賓素材
打開網(wǎng)易新聞 查看精彩圖片
圖源:演講嘉賓素材

一組數(shù)據(jù)表明,超過六成的用戶實際上愿意為智能座艙支付3000元至20000元以上的溢價。這一事實充分證明,智能座艙在服務(wù)表現(xiàn)及商業(yè)模式上均有望在未來迎來突破性進展。然而,在這一現(xiàn)狀之下,既蘊含著機遇,也暗藏著挑戰(zhàn)。

首要問題,盡管越來越多的功能在持續(xù)推出,但功能的增多并不等同于用戶體驗的升級。

以2024年常用任務(wù)的交互部署為例,相較于2023年,其復(fù)雜度反而有所增加;物理按鍵的取消,也顯著增加了交互的復(fù)雜性,降低了交互效率;座艙硬件雖每年持續(xù)迭代升級,但卡頓問題卻始終未能得到有效解決;大量新增的生態(tài)內(nèi)容和功能也對語音識別系統(tǒng)造成了諸多實際影響,系統(tǒng)更新難以跟上內(nèi)容增加的步伐......同時,關(guān)于應(yīng)用生態(tài)的問題,目前看似數(shù)量有限,但或許并非真正意義上的稀缺,而是因為這些應(yīng)用已經(jīng)深深嵌入到系統(tǒng)中,以至于用戶難以直接發(fā)現(xiàn)。我們觀察到,用戶在車上使用頻率最高的功能是語音和手觸交互方式,而這兩方面也正是用戶反饋抱怨最多的領(lǐng)域。

第二個問題是涉及用戶動態(tài)需求與系統(tǒng)研發(fā)靜態(tài)性之間的矛盾。

用戶的需求在整個用車過程中是動態(tài)變化的,這既與時間、空間相關(guān),也受個人個性化習(xí)慣的影響。然而,對于從業(yè)者而言,我們深知軟件的研發(fā)過程通常需要提前至少六個月,甚至更長的時間進行預(yù)設(shè)或預(yù)開發(fā)。這就導(dǎo)致了目前我們所面臨的問題:系統(tǒng)迭代的速度似乎總是滯后于用戶的需求變化。同時,整車的感知能力尚不足以準確理解用戶的狀態(tài)。此外,許多服務(wù)都缺乏個性化,呈現(xiàn)出“千人一面”的狀態(tài),而非“千人千面”。

隨著AI技術(shù)的不斷發(fā)展,大多數(shù)消費者愈發(fā)期望AI能夠引領(lǐng)他們享受更深度的場景化服務(wù)。他們希望AI能夠結(jié)合道路信息、個性化行為數(shù)據(jù)等多維度數(shù)據(jù),實現(xiàn)跨功能、跨場景的服務(wù)推薦。

第三個問題是系統(tǒng)割裂與生態(tài)協(xié)同的不足。

功能孤立導(dǎo)致的體驗碎片化是一個顯著問題,這通常體現(xiàn)在我們常用的幾種交互形態(tài)上,如語音、手觸及個性化推薦等。它們?nèi)缤粋€團隊中的成員,每個成員都渴望展現(xiàn)自我,但結(jié)果往往是各自為政,缺乏協(xié)調(diào)與統(tǒng)一性,呈現(xiàn)出一種不和諧的狀態(tài)。車廠面臨的一個痛點在于數(shù)據(jù)孤島現(xiàn)象阻礙了智能化進程。目前,車廠內(nèi)部的數(shù)據(jù)仍處于相對割裂的狀態(tài)。此外,生態(tài)資源的整合難度大,擴散受限。

針對上述三個困局,為了真正意義上實現(xiàn)未來智能化場景,我們進行了深入的思考,并探索了破局之道。

首先,我們利用AI的生成力,結(jié)合用戶的實時感知數(shù)據(jù),通過多模態(tài)方式獲取這些信息,進而為用戶生成個性化的生態(tài)場景。這一步驟旨在解決系統(tǒng)迭代速度滯后于用戶需求及整車感知能力不足的問題。

其次,結(jié)合動態(tài)交互技術(shù),將語音和視覺感知進行深度融合,實現(xiàn)無感切換的狀態(tài)。這有助于提升用戶交互體驗,解決功能孤立導(dǎo)致體驗碎片化的問題。

第三,在情感計算力方面下功夫,根據(jù)用戶的情緒狀態(tài)進行判斷,并實時調(diào)整推薦策略。這一步驟旨在實現(xiàn)服務(wù)的個性化,打破“千人一面”的局限,滿足用戶對于深度場景化服務(wù)的需求。

產(chǎn)品革命

我們基于操作系統(tǒng)層面,構(gòu)建了一套系統(tǒng)級的解決方案架構(gòu)。該架構(gòu)融合了端側(cè)的全維度感知與云端的智能優(yōu)化,旨在突破傳統(tǒng)座艙在硬件上的局限,并實現(xiàn)從功能執(zhí)行到場景服務(wù)化的跨越式升級。

圖源:演講嘉賓素材
打開網(wǎng)易新聞 查看精彩圖片
圖源:演講嘉賓素材

我們的架構(gòu)分為三個層級。在基礎(chǔ)層,利用大模型平臺建立了場景模式生成工廠,這一工廠將顯著降低車企在場景模式設(shè)計上的開發(fā)成本,預(yù)計可提升80%的效率。在交互層,匹配了一個零層級交互的桌面,即HMI隨心變桌面,這一桌面由我們自主研發(fā),區(qū)別于傳統(tǒng)的應(yīng)用化桌面,提供了更為靈活和個性化的交互體驗。在感知層,基于大模型基座進行了裁剪,打造了端側(cè)的語音基座模型,實現(xiàn)了全場景的自然語音交互。將這三個功能模塊與整車的原子化功能應(yīng)用相結(jié)合,我們期望能夠為用戶推薦一套融合了場景與情緒價值的智能場景方案,從而提供極具情緒價值的智能化體驗。

技術(shù)護城河

我們的AI-Llink場景模式生成平臺與傳統(tǒng)的場景引擎存在顯著差異。

一是服務(wù)模式上的革新,傳統(tǒng)的場景引擎主要采用預(yù)設(shè)模式,依據(jù)場景或預(yù)設(shè)觸發(fā)條件來運作,而我們當(dāng)前的平臺則完全基于實時感知進行生成,能夠在行車過程中實時為用戶生成相應(yīng)的場景模式。

二是在生成場景模式后,我們并不會急于將其推薦給用戶,而是通過一個自建的場景仿真Agent來檢驗所生成的場景模式是否符合當(dāng)前場景的需求以及用戶的偏好。這個Agent如同座艙產(chǎn)品經(jīng)理或用戶本身,扮演著驗證和篩選的角色。

第三個差異在于,與過去傳統(tǒng)的預(yù)設(shè)開發(fā)模式相比,我們的平臺在研發(fā)效率上有顯著提升,如前所述,大約能為現(xiàn)有車企提高80%左右的生產(chǎn)效率。

這樣一套高效流程的建立,需與車企采取共建的方式。首先,我們與車企共同構(gòu)建場景庫和記憶體系;其次,我們接收并分析相關(guān)數(shù)據(jù);接著,基于這些數(shù)據(jù)生成完整的場景模式;然后,通過仿生驗證對生成的場景模式進行檢驗;最終,將經(jīng)過裁決確認符合需求的場景模式反饋給用戶。

以用戶發(fā)出需求為例,常見的交互方式有三種。例如,用戶通過語音表達:“天氣太熱了,我想要一個適合夏天的場景?!痹谖覀兊膱鼍澳J缴善脚_下,系統(tǒng)會智能推薦一個“夏日清涼模式”。這一模式并非僅僅單獨調(diào)用車上的某一功能,而是在整合并告知用戶整車能力后,同時觸發(fā)多項功能,如空調(diào)、座椅調(diào)節(jié)、門窗控制,甚至車載冰箱等,為用戶提供全方位的舒適體驗。

圖源:演講嘉賓素材
打開網(wǎng)易新聞 查看精彩圖片
圖源:演講嘉賓素材

比如接送小朋友上下學(xué)的場景,當(dāng)用戶上車后,系統(tǒng)可能會先為小朋友調(diào)節(jié)空調(diào)溫度,或打開后排娛樂屏播放動畫片,在幾次這樣的行為后,系統(tǒng)會記錄下這一場景習(xí)慣。當(dāng)下次用戶再次上車時,系統(tǒng)便能直接推送“哄娃套餐”給用戶。

又如周末全家人出游的場景,傳統(tǒng)露營模式通常是在到達目的地后才被啟用,我們的場景服務(wù)實際上應(yīng)從用戶上車的那一刻起便已開始。當(dāng)檢測到用戶已從高速進入山路時,系統(tǒng)會根據(jù)地理位置信息生成一個“山野尋路”模式。在這個模式下,小朋友可以在車上像抽盲盒一樣隨機獲得一張動物卡片,作為這次旅行的紀念冊。這一功能不僅沒有在車上預(yù)設(shè),反而成為了一個有趣的玩法,為用戶帶來了驚喜。

僅憑云平臺尚不足以滿足需求,我們還需一個端側(cè)展示效果卓越的桌面系統(tǒng)。因此,我們開發(fā)了功能強大的全新大模型桌面。該桌面具備多形態(tài)支持、組件自定義、多域信息融合等特性,結(jié)合各類生成的場景,桌面能夠變換主題,如“親子時光”、“家庭出游”等,最快可在4秒內(nèi)完成高質(zhì)量主題生成,其生成質(zhì)量在業(yè)內(nèi)處于領(lǐng)先地位。此外,該桌面還能預(yù)判用戶需求,結(jié)合智能場景卡片,為用戶生成富含情緒價值的卡片。值得一提的是,該桌面不僅快速高效,還能自適應(yīng)市面上近99%車企的屏幕。同時,它作為一款輕量級引擎,對車端算力的消耗極低,資源占用率僅約0.1%。

除了桌面系統(tǒng)外,我們在感知層也進行了相應(yīng)的布局。近年來,云計算技術(shù)經(jīng)歷了多個發(fā)展階段。第一階段是概率模型,但其泛化能力和理解力相對較弱;第二階段則是深度學(xué)習(xí),盡管有所進步,但在上下文理解方面仍有限制。隨著Transformer等大模型架構(gòu)的出現(xiàn),我們看到了解決以往難題的新機遇。我們在端側(cè)基于基座模型裁剪,開發(fā)了一個端測大模型。

該模型以端測為核心,確保了弱網(wǎng)和無網(wǎng)場景下的高可用性。其高效低成本的特點,通過將原有的三段式語音處理(ASR等)簡化為兩段式,并結(jié)合超擬人的文本到語音(TTS)系統(tǒng),顯著降低了對云端資源的消耗。此外,該模型支持用戶的個性化定制,包括千人千面的設(shè)置,并能處理復(fù)雜的指令,如多意圖模糊指令、組合指令以及連續(xù)對話。對于跨域的多人對話和長短期的記憶,超擬人TTS不僅模擬人聲,還能復(fù)刻用戶的聲音。我們的識別率目標為99%,token生成速度達到每秒100個,首次響應(yīng)時間小于800毫秒。未來,我們將支持超過100種國家語言。

商業(yè)價值

我們期望與車企在商業(yè)模式上共同創(chuàng)新的方向。除了傳統(tǒng)的商業(yè)模式,我們還計劃采用用戶付費的場景訂閱模式,并結(jié)合生態(tài)服務(wù)分成模式,與車廠攜手構(gòu)建一個可持續(xù)的、為用戶持續(xù)提供服務(wù)的生態(tài)系統(tǒng)。同時,我們的方案本身具備降低成本的效果,能顯著縮短車企的開發(fā)周期。

我們的生態(tài)共建計劃分為三個階段。第一階段為基礎(chǔ)接入階段,預(yù)計需要3至6個月的適配時間。第二階段為聯(lián)合研發(fā)與運營階段,我們將共同建立場景實驗室。第三階段,我們期望將研發(fā)成果和積累的經(jīng)驗分享至整個行業(yè)。

愿景與邀約

如今不僅是大模型時代全面到來的時刻,也是我們在這個軟件行業(yè)深耕十年以來,見證從用戶認知到技術(shù)認知實現(xiàn)巨大跨越的里程碑。未來已經(jīng)觸手可及,而未來的汽車,不應(yīng)僅僅是功能的堆砌與集合,而應(yīng)成為場景的有機融合體。因此,現(xiàn)在是時候重新審視并重新定義我們輪子上的生活了。

(以上內(nèi)容來自艾博連科技(上海)有限公司CEO周恩澤于2025年3月20日在第三屆AI定義汽車論壇發(fā)表的《AI重構(gòu)未來出行:場景驅(qū)動的智能座艙生態(tài)革命》主題演講。)