打開(kāi)網(wǎng)易新聞 查看精彩圖片

新智元報(bào)道

編輯:英智

【新智元導(dǎo)讀】大模型雖然推理能力增強(qiáng),卻常常「想太多」,回答簡(jiǎn)單問(wèn)題也冗長(zhǎng)復(fù)雜。Rice大學(xué)的華人研究者提出高效推理概念,探究了如何幫助LLM告別「過(guò)度思考」,提升推理效率。

LLM的推理能力顯著增強(qiáng),然而,這個(gè)「超級(jí)大腦」也有自己的煩惱。

有時(shí)候回答會(huì)繞好大一個(gè)圈子,推理過(guò)程冗長(zhǎng)又復(fù)雜,雖能得出正確答案,但耗費(fèi)了不少時(shí)間和計(jì)算資源。

比如問(wèn)它「2加3等于多少」,它可能會(huì)從數(shù)字的概念、加法原理開(kāi)始,洋洋灑灑說(shuō)上一大通,這在實(shí)際應(yīng)用中可太影響效率啦。

來(lái)自Rice大學(xué)的華人研究者提出了「高效推理」的概念,在保證回答準(zhǔn)確的同時(shí),更快、更簡(jiǎn)潔地給出答案。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

論文鏈接:https://arxiv.org/abs/2503.16419

項(xiàng)目鏈接:https://github.com/Eclipsess/Awesome-Efficient-Reasoning-LLMs

接下來(lái),深入探討LLM的高效推理,幫它們告別「過(guò)度思考」。

別讓模型「想太多」,邁向高效推理

LLM通過(guò)思維鏈(CoT)提示等技術(shù),在復(fù)雜推理任務(wù)中表現(xiàn)亮眼。

CoT就像是給模型裝上了「思考引擎」,讓它能一步一步地推導(dǎo),把推理過(guò)程清晰地展現(xiàn)出來(lái)。

不過(guò),這份出色的表現(xiàn),需要消耗大量計(jì)算資源。

LLM經(jīng)常出現(xiàn)「過(guò)度思考」的情況,生成長(zhǎng)而冗余的推理內(nèi)容,增加了延遲和資源消耗。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

本文聚焦于如何在提升或保持模型性能的同時(shí),優(yōu)化推理過(guò)程,這對(duì)計(jì)算資源有限的實(shí)際場(chǎng)景十分重要。

研究者梳理了應(yīng)對(duì)「過(guò)度思考」,實(shí)現(xiàn)高效推理的技術(shù)手段:

  • 基于模型的高效推理:即考慮將模型優(yōu)化為更簡(jiǎn)潔的推理模型,或直接訓(xùn)練高效推理模型。

  • 基于推理輸出:旨在推理過(guò)程中動(dòng)態(tài)減少推理步驟和長(zhǎng)度。

  • 基于輸入提示:根據(jù)輸入提示的屬性(如難度或長(zhǎng)度控制)提高推理效率。

此外,研究者還介紹了用高效數(shù)據(jù)訓(xùn)練推理模型,探索小模型的推理能力,并討論了評(píng)估方法和基準(zhǔn)測(cè)試。

認(rèn)識(shí)「過(guò)度思考」

LLM產(chǎn)生冗長(zhǎng)、不必要的推理過(guò)程時(shí),就出現(xiàn)了「過(guò)度思考」現(xiàn)象。

在回答「0.9和0.11哪個(gè)大」這個(gè)簡(jiǎn)單的問(wèn)題時(shí),DeepSeek-R1和QwQ-32B這兩個(gè)模型給出的答案都十分冗長(zhǎng)。

它可能會(huì)從十進(jìn)制的原理開(kāi)始,分析小數(shù)點(diǎn)后的每一位數(shù)字,還會(huì)嘗試用各種方法驗(yàn)證,比如轉(zhuǎn)化為分?jǐn)?shù)或在數(shù)軸上表示,最后才給出答案。

雖然答案是對(duì)的,但推理過(guò)程又長(zhǎng)又啰嗦,耗費(fèi)了大量時(shí)間和計(jì)算資源。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

DeepSeek-R1:好的,我得判斷0.9和0.11誰(shuí)更大。它們都是小數(shù),但小數(shù)點(diǎn)后的位數(shù)不一樣。我先想想每個(gè)小數(shù)的含義,0.9就是十分之九,因?yàn)樾?shù)點(diǎn)后第一位是十分位。等等,我換個(gè)方法確認(rèn)下,把它們轉(zhuǎn)成百分?jǐn)?shù)試試……為了確保沒(méi)錯(cuò),我在數(shù)軸上表示一下吧。還有其他驗(yàn)證方法嗎?用減法好像也行……或者……我確定答案是0.9。(616字,19秒)

QwQ-32B:要找出0.9和0.11哪個(gè)大。它們是小數(shù),逐位比較看看?我回憶下小數(shù)比較的規(guī)則……0.9 小數(shù)點(diǎn)后有1位,0.11有2位,寫(xiě)法上是不是要調(diào)整下……不對(duì),我再檢查下,是不是哪里搞錯(cuò)了。換個(gè)思路……另一種方法是……最終答案是0.9更大。(602字,42秒)

從這個(gè)例子,能看出「過(guò)度思考」的幾個(gè)特點(diǎn):回答簡(jiǎn)單問(wèn)題,兩個(gè)模型都寫(xiě)了600多字。推理過(guò)程中有很多重復(fù)、多余的驗(yàn)證方法。

推理內(nèi)容越長(zhǎng),處理所需的時(shí)間就越多。模型會(huì)反復(fù)懷疑自己的推理過(guò)程。

在資源有限的環(huán)境,或像自動(dòng)駕駛、智能交互助手這類(lèi)需要實(shí)時(shí)響應(yīng)的應(yīng)用場(chǎng)景中,「過(guò)度思考」帶來(lái)的效率低下問(wèn)題就會(huì)格外突出。

開(kāi)啟高效推理

高效推理方法有以下三類(lèi),基于模型的有效推理、針對(duì)結(jié)果的優(yōu)化和借助輸入提示的有效推理。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

基于模型的有效推理

一種有效的做法是在RL中加入長(zhǎng)度獎(jiǎng)勵(lì),引導(dǎo)它生成簡(jiǎn)潔的推理。

以前,模型訓(xùn)練的時(shí)候主要關(guān)注答案是否正確、格式是否規(guī)范?,F(xiàn)在研究人員給它加了一個(gè)新的「考核指標(biāo)」——推理長(zhǎng)度。

就像老師不僅要求學(xué)生答對(duì)題,還要求答題過(guò)程簡(jiǎn)潔明了。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

獎(jiǎng)勵(lì)函數(shù)通常是這樣的:

其中α用來(lái)調(diào)節(jié)長(zhǎng)度懲罰在獎(jiǎng)勵(lì)函數(shù)中的權(quán)重,R_length是根據(jù)推理響應(yīng)長(zhǎng)度設(shè)置的懲罰項(xiàng),計(jì)算方式如下:

模型為了獲得更多獎(jiǎng)勵(lì),就會(huì)在保證答案準(zhǔn)確的同時(shí),盡量少用token。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

利用可變長(zhǎng)度的CoT數(shù)據(jù)進(jìn)行監(jiān)督微調(diào),也是提升推理效率的有效方法。

這就好比給模型提供了不同難度和長(zhǎng)度的「練習(xí)題」,讓它學(xué)會(huì)靈活應(yīng)對(duì)各種情況。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

訓(xùn)練數(shù)據(jù)中既有完整詳細(xì)的推理鏈,也有簡(jiǎn)短、高效的推理路徑。

通過(guò)這些示例,模型就能學(xué)會(huì)在不降低準(zhǔn)確性的前提下,采用更簡(jiǎn)潔高效的推理模式。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

在微調(diào)模型的時(shí)候,既可以采用像LoRA這樣的標(biāo)準(zhǔn)微調(diào)方法,對(duì)模型參數(shù)進(jìn)行小范圍的調(diào)整;也可以采用漸進(jìn)式微調(diào),讓模型慢慢適應(yīng)新的思考節(jié)奏,逐步提高推理效率。

優(yōu)化推理輸出,精簡(jiǎn)思考過(guò)程

從推理輸出的角度,研究人員嘗試通過(guò)創(chuàng)新的方式來(lái)壓縮推理步驟,讓模型的「思考過(guò)程」更加精簡(jiǎn)。

這些方法不改變模型的參數(shù),直接對(duì)推理輸出的結(jié)果進(jìn)行優(yōu)化。

潛在推理技術(shù)能把推理步驟壓縮為更精簡(jiǎn)的表達(dá)形式,圖中展示了多種以更高效的格式編碼的潛在推理方法:

  • Coconut:在訓(xùn)練過(guò)程中,逐漸減少推理內(nèi)容的冗長(zhǎng)部分。

  • CODI:運(yùn)用自蒸餾的方式,壓縮推理內(nèi)容。

  • CCOT:把CoT推理壓縮為潛在表征。

  • SoftCoT:借助小型輔助模型,將潛在思維投射到較大的模型中。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

這些方法通常會(huì)用到嵌入函數(shù),把冗長(zhǎng)的推理內(nèi)容映射到一個(gè)更緊湊的空間里,用公式表示就是:

E_compact是壓縮后的推理表示,f是學(xué)習(xí)到的變換函數(shù)。

除了利用潛在表示,在推理過(guò)程中動(dòng)態(tài)調(diào)整推理策略也是提高效率的關(guān)鍵。

動(dòng)態(tài)推理會(huì)根據(jù)每個(gè)問(wèn)題的具體情況,按需生成推理步驟,圖中介紹了兩種典型的技術(shù)。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

在獎(jiǎng)勵(lì)引導(dǎo)方面,推測(cè)拒絕優(yōu)化了最佳N解碼算法。在生成多個(gè)響應(yīng)的過(guò)程中,根據(jù)獎(jiǎng)勵(lì)模型的評(píng)估,及時(shí)丟棄低質(zhì)量的輸出,減少不必要的計(jì)算開(kāi)銷(xiāo)。

面對(duì)復(fù)雜問(wèn)題時(shí),它會(huì)先大量生成可能的推理路徑,然后快速排除那些沒(méi)有希望的路徑,只保留高質(zhì)量的路徑繼續(xù)推理,大大提高了推理效率。

這兩種技術(shù)的核心思路都是,根據(jù)問(wèn)題的復(fù)雜程度靈活調(diào)整推理深度,用公式表示為:

借助輸入提示,巧妙引導(dǎo)思考
從輸入提示的角度入手,也能讓模型推理變得更高效。

打開(kāi)網(wǎng)易新聞 查看精彩圖片

長(zhǎng)度約束提示簡(jiǎn)單又實(shí)用,直接在提示里要求模型控制推理長(zhǎng)度,比如「用不超過(guò)10個(gè)token回答下面的問(wèn)題」。

CoD方法則讓模型在逐步推理時(shí),只保留每個(gè)思考步驟的最少草稿,最多用五個(gè)單詞。

比如在解答數(shù)學(xué)題時(shí),模型不再詳細(xì)寫(xiě)出每一步的推導(dǎo)過(guò)程,而是用簡(jiǎn)潔的幾個(gè)詞概括關(guān)鍵思路,這樣在保證準(zhǔn)確性的同時(shí),大大減少了token的使用。

不同的任務(wù)難度不同,對(duì)推理的要求也不一樣。

因此,根據(jù)輸入提示的屬性進(jìn)行推理路由也是一種提高效率的策略。

RouteLLM訓(xùn)練了一個(gè)查詢(xún)路由器,它根據(jù)問(wèn)題的復(fù)雜性將查詢(xún)分配給合適的模型。

簡(jiǎn)單的問(wèn)題就交給速度快但推理能力較弱的模型處理,復(fù)雜的問(wèn)題則交給能力更強(qiáng)的模型,這樣可以充分發(fā)揮不同模型的優(yōu)勢(shì),提高整體推理效率。

Self-Ref方法讓LLM能根據(jù)自身的不確定性分?jǐn)?shù)來(lái)決定是否需要路由到更強(qiáng)大的模型。

如果模型對(duì)自己的答案不太確定,就會(huì)自動(dòng)尋求更強(qiáng)大模型的幫助,減少不必要的推理步驟。

其他探索

除了上述方向,研究人員還在數(shù)據(jù)、模型和評(píng)估等方面進(jìn)行了深入探索,以進(jìn)一步提升LLM的推理效率。

用更少數(shù)據(jù),辦更多事

很多研究發(fā)現(xiàn),訓(xùn)練數(shù)據(jù)的質(zhì)量和結(jié)構(gòu),對(duì)模型的高效推理能力影響很大。

通過(guò)精心挑選和組織訓(xùn)練數(shù)據(jù),即使數(shù)據(jù)量少,也能讓模型有出色的表現(xiàn)。

  • 數(shù)據(jù)多樣性:讓模型接觸各種推理模式和問(wèn)題類(lèi)型。

  • 數(shù)據(jù)質(zhì)量:選擇高質(zhì)量的樣本,而不只追求數(shù)量多。

  • 推理結(jié)構(gòu):明確教模型逐步推理,而不是直覺(jué)推理。

LIMO打破了傳統(tǒng)的觀念,不再追求數(shù)據(jù)的數(shù)量,而是專(zhuān)注于質(zhì)量。

它會(huì)從難度、通用性和知識(shí)多樣性等方面挑選高質(zhì)量的問(wèn)題,然后再配上結(jié)構(gòu)合理、驗(yàn)證嚴(yán)格的解決方案。

用這精心挑選的817個(gè)樣本,LIMO訓(xùn)練出來(lái)的模型就能超越那些用了10多萬(wàn)個(gè)樣本訓(xùn)練的模型,是不是很厲害?

S2R給LLM注入了自我驗(yàn)證和自我糾正的能力,就像給模型請(qǐng)了一個(gè)私人教練。

它先在一個(gè)精心挑選的數(shù)據(jù)集上對(duì)模型進(jìn)行微調(diào),讓模型初步具備這些能力,然后再通過(guò)RL進(jìn)一步提升。

只用了3100個(gè)初始化樣本,S2R微調(diào)后的模型在推理任務(wù)中的表現(xiàn),比很多用大量長(zhǎng)CoT蒸餾數(shù)據(jù)訓(xùn)練的模型還要好。

小模型的「逆襲之路」

LLM雖然能力很強(qiáng),但它對(duì)計(jì)算資源的要求也很高,在一些資源有限的場(chǎng)景里就有點(diǎn)施展不開(kāi)。

這時(shí)候,小語(yǔ)言模型(SLM)就有了用武之地。

不過(guò),要讓SLM在有限的資源下也能有強(qiáng)大的推理能力,還得給它來(lái)點(diǎn)「特殊訓(xùn)練」。

知識(shí)蒸餾是提升SLM推理能力的重要方法,簡(jiǎn)單來(lái)說(shuō),就是把LLM的智慧傳遞給SLM。

混合蒸餾就像是把不同的「知識(shí)精華」混合在一起,有的把長(zhǎng)、短CoT推理示例混合,有的把CoT和PoT(Program of Thought)結(jié)合,讓SLM能吸收更全面的知識(shí)。

反事實(shí)蒸餾則像是給SLM創(chuàng)造了一些假設(shè)情境,通過(guò)對(duì)原始問(wèn)題進(jìn)行特殊處理,生成多視角的CoT,讓SLM從不同角度學(xué)習(xí)知識(shí)。

還有反饋驅(qū)動(dòng)的蒸餾技術(shù),它會(huì)不斷優(yōu)化蒸餾數(shù)據(jù)集,像給SLM提供越來(lái)越精準(zhǔn)的學(xué)習(xí)資料。

另外,一些方法還把探測(cè)和檢索機(jī)制融入蒸餾過(guò)程,或者在蒸餾時(shí)讓模型根據(jù)任務(wù)動(dòng)態(tài)調(diào)整推理策略,這些都幫助SLM更好地學(xué)習(xí)LLM的推理能力。

評(píng)估推理能力

評(píng)估高效推理,需要綜合考慮準(zhǔn)確性和推理效率:

  • 準(zhǔn)確性:看最終給出的答案是否正確。

  • 效率:token使用數(shù)量、推理花費(fèi)的時(shí)間、消耗的計(jì)算資源。

實(shí)際評(píng)估時(shí),通常會(huì)先把效率指標(biāo)標(biāo)準(zhǔn)化處理,再和準(zhǔn)確性指標(biāo)結(jié)合起來(lái),形成一個(gè)綜合指標(biāo):

既獎(jiǎng)勵(lì)正確性,又鼓勵(lì)推理的簡(jiǎn)潔性。

Sys2Bench涵蓋了算術(shù)、邏輯、常識(shí)、算法和規(guī)劃等多個(gè)領(lǐng)域的任務(wù),用11個(gè)不同的數(shù)據(jù)集對(duì)LLM進(jìn)行全方位的測(cè)試。

通過(guò)這個(gè)測(cè)試,發(fā)現(xiàn)僅靠增加推理時(shí)的計(jì)算資源,并不能讓模型在所有任務(wù)中都表現(xiàn)出色,提升LLM的推理能力需要多種方法結(jié)合。

還有一些研究專(zhuān)門(mén)考察不同的推理策略對(duì)模型性能的影響,以及測(cè)試時(shí)擴(kuò)展(TTS)策略和模型性能之間的關(guān)系。

對(duì)LLM的過(guò)度思考問(wèn)題,也有專(zhuān)門(mén)的評(píng)估方法。

研究人員開(kāi)發(fā)了一個(gè)評(píng)估框架,可以深入分析模型的推理過(guò)程,找出像分析癱瘓、異常行為和過(guò)早放棄等模式。

他們提出了「過(guò)度思考分?jǐn)?shù)」,就像是一個(gè)健康指標(biāo),分?jǐn)?shù)越高,說(shuō)明模型過(guò)度思考的問(wèn)題越嚴(yán)重,任務(wù)性能就越差。

通過(guò)選擇過(guò)度思考分?jǐn)?shù)低的解決方案,可以讓模型性能提高30%,同時(shí)降低43%的計(jì)算開(kāi)銷(xiāo)。

參考資料:

https://www.alphaxiv.org/overview/2503.16419